OpenXLA
為 OpenXLA 貢獻心力
什麼是 XLA?
為 XLA 貢獻心力
什麼是 StableHLO?
參考說明文件
產業合作夥伴
阿里巴巴
「在阿里巴巴,Elastic GPU 服務客戶利用 OpenXLA 訓練及提供大型 PyTorch 模型。我們發現使用 OpenXLA 的客戶獲得顯著的效能提升,可明顯提高 GPT2 的 72% 和 NVIDIA GPU 上的 Swin Transformer 速度為 88%。我們很榮幸成為 OpenXLA 專案的創辦人,並與開放原始碼社群合作開發先進的機器學習編譯器,為 Alibaba Cloud 客戶提供卓越的效能和使用者體驗。」- Alibaba 的 AI 與資料分析副總裁 Yangqing Jia
Amazon Web Services
「我們很高興能成為 OpenXLA Project 的創始成員,這麼做可讓所有員工都能存取高效能、可擴充且可擴充的 AI 基礎架構,也能在開放原始碼社群中進一步合作來推動革新。AWS 的客戶可以在 AWS Trainium 和 Inferentia 上擴充生成式 AI 應用程式,而我們的 Neuron SDK 也利用 XLA 技術來最佳化機器學習模型,以便提高高效能並達到最高價。有了穩固的 OpenXLA 生態系統,開發人員就能透過永續的機器學習基礎架構持續創新及提供卓越效能。此外,開發人員可以自由使用他們的程式碼來選擇硬體。」- AWS 副總裁暨傑出工程師 Nafea Bshara
AMD
「我們很期待未來能在廣泛的 AMD 裝置 (CPU、GPU、AIE) 系列裝置上推動 OpenXLA 的未來發展,也很高興能加入這個社群。我們重視具備開放管理、彈性且廣泛應用、具有先進功能,以及卓越成效的專案,也很期待能持續合作,為機器學習開發人員拓展開放原始碼生態系統。」- AMD 軟體開發部門企業副總裁 Alan Lee
不限規模
「Anyscale 開發出多種開放且可擴充的技術 (例如 Ray),協助 AI 從業人員加快應用程式開發速度,讓更多使用者都能使用。我們最近與 ALPA 專案合作,使用 OpenXLA,大規模執行大型語言模型的高效能模型訓練。我們很高興能參與 OpenXLA,也很高興這項開放原始碼技術能有效率地在各種硬體平台上執行 AI 工作負載,進而降低進入門檻、降低成本並加快 AI 領域發展的速度。」- Anyscale 技術長 Philipp Moritz
蘋果
Apple Inc. 的設計、製造和市場智慧型手機、個人電腦、平板電腦、穿戴式裝置和配件,並販售各種相關服務。
實驗組
「在簡化機器學習軟體開發的過程中,OpenXLA Project 是非常重要的里程碑。我們充分支持 OpenXLA 的使命,期待在 Arm® NeoverseTM 軟硬體藍圖中運用 OpenXLA 穩定性和標準化。」- Arm® NeoverseTM 軟硬體部門副總裁 Peter Greenhalgh。
塞雷布拉斯
「Cerebras 致力打造 AI 加速器,即使是最大型的 AI 模型也能輕鬆快速地訓練。我們的系統和軟體可滿足使用者的位置,因此只要使用標準的機器學習架構,即可快速進行開發、資源調度和疊代作業,無需任何改變。OpenXLA 透過 Cerebras Wafer-Scale Engine 與更高層級的機器學習架構提供通用介面,藉此擴大使用者觸及範圍,並加速解決問題。我們很高興能看到 OpenXLA 生態系統在 GitHub 上開放給更多社群參與、貢獻及使用。」- Cerebras Systems 產品副總裁暨產品主管 Andy Hock
「開放原始碼軟體讓每個人都有機會在 AI 領域中創下新突破。Google 也與 OpenXLA Project 合作,進一步履行對開放原始碼的承諾,並推廣 AI 工具的採用率,進而提升機器學習效能的標準、解決架構和硬體之間的不相容問題,並能重新調整設定,滿足開發人員專屬的用途。我們很高興能與 OpenXLA 社群合作開發這些工具,讓開發人員能在 AI 堆疊的多個不同層面推動進展。」- Google 研究與 AI 資深副總裁暨資深副總裁 Jeff Dean
Graphcore
「我們的 IPU 編譯器管道在公開發布後就開始使用 XLA,XLA 的平台獨立性和穩定性,因此能夠提供理想前端,進而啟動創新晶片。XLA 的靈活性讓我們得以公開 IPU 的新硬體功能,並透過多個架構實現最先進的效能。執行由 XLA 編譯程式碼的系統,每天處理數百萬筆查詢。我們對於 OpenXLA 的發展非常期待,希望能夠繼續為開放原始碼專案貢獻心力。我們相信,它會在 AI/機器學習技術的未來發展成一項核心要素。」- Graphcore 軟體設計總監 David Norman
擁抱的臉
「讓開發人員輕鬆在任何硬體中執行任何模型是一大挑戰,而這個目標不僅是讓所有人都能使用優質機器學習的使命,也是不可或缺的目標。在 Hugging Face 中,我們為 TensorFlow 文字生成模型啟用了 XLA,速度高達 100 倍。此外,我們與 Intel、AWS、Habana、Graphcore、AMD、Qualcomm 和 Google 的工程團隊密切合作,在架構與每個晶片之間建立開放原始碼橋樑,透過 Optimum 程式庫為使用者提供立即可用的效率。OpenXLA 承諾提供標準化的構成元素,讓我們能夠建立高度必要的互通性,也很期待實現並做出貢獻!」 - 機器學習最佳化部門主管 Morgan Funtowicz
Intel
「Intel 相信開放所有人使用 AI 技術。有了 Intel CPU、GPU、Habana Gaudi 加速器,以及 OpenVINO 等單一 API 技術輔助的 AI 軟體,無論是規模龐大的超級電腦,還是主要的雲端部署項目,都能推動機器學習工作負載。我們希望與其他 OpenXLA 成員合作,一起支援符合標準且元件化的機器學習編譯器工具,藉此推動多個架構和硬體環境的創新,以加速推動世界變革的科學與研究。」- 軟體與進階技術集團技術長暨總經理 Greg Lavender
Meta 鍵
「在研究中,Meta AI 曾使用 XLA 這項 OpenXLA 專案的核心技術,為 Cloud TPU 啟用 PyTorch 模型,並在重要專案上大幅提升效能。我們相信開放原始碼可以加快全球的創新步調,而且很高興能參與 OpenXLA 計畫。」- PyTorch 首席維護人員 Soumith Chintala
NVIDIA
「身為 OpenXLA Project 的創始成員,NVIDIA 期待與 OpenXLA 社群合作,共同改善 AI/機器學習技術,並正面參與 OpenXLA 計畫,讓機器學習開發人員得以運用最先進的 AI 基礎架構。」- NVIDIA 編譯器軟體部門副總裁 Roger Bringmann