XLA

XLA (加速線性代數) 是機器學習的開放原始碼編譯器,XLA 編譯器會從 PyTorch、TensorFlow 和 JAX 等熱門架構取得模型,並經過最佳化調整,以便在不同硬體平台 (包括 GPU、CPU 和機器學習加速器) 之間進行高效能執行。舉例來說,在 BERT MLPerf 提交中,與無 XLA 的相同 GPU 相較,使用 XLA 搭配 8 Volta V100 GPU 後,效能提升約 7 倍,批次大小則能改善約 5 倍。

XLA 屬於 OpenXLA 專案的一部分,由許多領先業界的機器學習軟硬體公司協同建構,包括 Alibaba、Amazon Web Services、AMD、Apple、ARM、Google、Intel、Meta 和 NVIDIA。

主要優點

  • 在任何位置建構:XLA 已整合至領先業界的機器學習架構,例如 TensorFlow、PyTorch 和 JAX。

  • 在任意位置執行:支援各種後端,包括 GPU、CPU 和機器學習加速器,並包含可插入的基礎架構,以提供更多支援。

  • 最大化及擴充效能:此引擎透過通過正式環境測試的最佳化傳遞和自動化分區功能,針對模型平行處理最佳化模型的效能。

  • 消除複雜度:這個程式庫運用 MLIR 的強大功能,將最佳功能整合到單一編譯器工具鍊中,讓您不必管理各種特定領域專用的編譯器。

  • 預備後:LA 是開放原始碼專案,透過與頂尖機器學習軟硬體廠商合作打造而成,可在機器學習產業最先進的運作。

說明文件

如要進一步瞭解 XLA,請查看左側的連結。如果您是新的 XLA 開發人員,可能會想先從 XLA 架構開始,再閱讀程式碼審查