XLA 輸出
透過集合功能整理內容
你可以依據偏好儲存及分類內容。
XLA (加速線性代數) 是機器學習的開放原始碼編譯器。XLA 編譯器會從 PyTorch、TensorFlow 和 JAX 等熱門架構取得模型,並可在不同硬體平台上 (包括 GPU、CPU 和機器學習加速器) 將模型最佳化,實現高效能執行作業。舉例來說,在 BERT MLPerf 提交內容中,與沒有 XLA 的相同 GPU 相比,使用 XLA 搭配 XLA 時,效能可提升約 7 倍,批次大小則改善約 5 倍。
XLA 是 OpenXLA 專案的一環,由領先業界的機器學習軟硬體公司合作建構,包括阿里巴巴、Amazon Web Services、AMD、Apple、ARM、Google、Intel、Meta 和 NVIDIA。
主要優點
隨時隨地建構:XLA 已整合至領先業界的機器學習架構,例如 TensorFlow、PyTorch 和 JAX。
在任何位置執行:支援多種後端,包括 GPU、CPU 和機器學習加速器,且提供可插入的基礎架構,提供更多支援。
最大化及擴充效能:透過在實際工作環境中測試的最佳化傳遞,以及用於模型平行處理的自動化分區功能,讓模型達到最佳效能。
消除複雜性:這個程式庫運用 MLIR 的強大功能將最佳功能整合至單一編譯器工具鍊,因此您不必管理多個網域專屬編譯器。
符合未來趨勢:XLA 是一項開放原始碼專案,與頂尖機器學習硬體和軟體供應商合作建構,可在機器學習業界先進運作。
說明文件
如要進一步瞭解 XLA,請參閱下列指南。如果您是新的 XLA 開發人員,建議您先從 XLA 架構著手,然後閱讀程式碼審查。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2024-01-10 (世界標準時間)。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"缺少我需要的資訊"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"過於複雜/步驟過多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"過時"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻譯問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/程式碼問題"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"容易理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"確實解決了我的問題"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]