一个由高性能、可移植、可扩展的机器学习 (ML) 基础架构组件组成的开放生态系统,通过对前端框架和硬件后端之间的工具进行碎片整理来简化机器学习开发。由 AI 建模、软件和硬件领域的行业领导者构建。
适用于 GPU、CPU 和机器学习加速器的机器学习 (ML) 编译器。
用于框架导出、编译器输入以及与硬件无关的下降的可移植运算集。
独立于硬件和框架的接口,适用于机器学习编译器和运行时。

加入 OpenXLA 社区

加入 openxla-announce 邮寄名单,获取有关版本、活动和其他重大更新的新闻。
加入 openxla-compose 邮寄名单,参与设计和开发讨论。
查看过往会议的记录,并将即将召开的会议添加到日历中。
访问 GitHub 上的 OpenXLA 项目和代码库。

为 OpenXLA 做贡献

这些教程将帮助您开始作为 OpenXLA 贡献者。
XLA(加速线性代数)是一种用于机器学习的开源编译器。XLA 编译器从 PyTorch、TensorFlow 和 JAX 等常用框架中获取模型,并优化模型以在不同的硬件平台(包括 GPU、CPU 和机器学习加速器)上实现高性能执行。
XLA 项目开发入门。
StableHLO 是机器学习 (ML) 模型中高级操作 (HLO) 的运算集。从本质上讲,它是不同机器学习框架和机器学习编译器之间的可移植层:生成 StableHLO 程序的机器学习框架与使用 StableHLO 程序的机器学习编译器兼容。
XLA 和 StableHLO 操作参考文档。

行业合作伙伴

OpenXLA 项目由领先的机器学习硬件和软件组织协作开发。
阿里巴巴徽标

阿里巴巴

“在阿里巴巴,Elastic GPU Service 客户利用 OpenXLA 来训练和服务大型 PyTorch 模型。我们发现,使用 OpenXLA 的客户的性能得到显著提升,特别是在 NVIDIA GPU 上,GPT2 的运行速度提升了 72%,而 Swin Transformer 提升了 88%。我们很自豪能够成为 OpenXLA 项目的创始成员,并与开源社区合作开发高级机器学习编译器,从而为阿里巴巴云客户提供卓越的性能和用户体验。”- Yangqing Jia,阿里巴巴 AI 和数据分析副总裁

Amazon Web Services 徽标

Amazon Web Services

“我们很高兴能成为 OpenXLA 项目的创始成员,该项目将让更多人访问高性能、可扩缩且可扩展的 AI 基础架构,并促进开源社区内的进一步协作,以推动创新。在 AWS,我们的客户将其生成式 AI 应用扩展到 AWS Trainium 和 Inferentia,而我们的 Neuron SDK 依靠 XLA 优化机器学习模型,以实现高性能和出色的每瓦特性能。有了强大的 OpenXLA 生态系统,开发者可以继续通过可持续的机器学习基础架构进行创新并提供卓越的性能,并且知道他们的代码可以移植到所选的硬件上。”- Nafea Bshara,AWS 副总裁兼杰出工程师

AMD 徽标

AMD

“我们对 OpenXLA 在众多 AMD 设备(CPU、GPU、AIE)上的未来发展方向充满期待,并为能成为这个社区的一员而感到自豪。我们重视具有开放治理、灵活和广泛的适用性、先进功能和卓越性能的项目,并期待继续与大家合作,为机器学习开发者拓展开源生态系统。”- Alan Lee,AMD 软件开发公司副总裁

Anyscale 徽标

任意规模

“Anyscale 开发了像 Ray 这样的开放和可扩展技术,帮助 AI 从业者更快地开发应用并提供给更多用户。最近,我们与 ALPA 项目合作,使用 OpenXLA 大规模展示适用于大型语言模型的高性能模型训练。我们非常高兴参加了 OpenXLA,也很高兴能通过这项开源项目高效在更广泛的硬件平台上运行 AI 工作负载,从而降低入门门槛、降低成本并更快地推动 AI 领域的发展。”- Philipp Moritz,Anyscale 首席技术官

Apple 徽标

苹果

Apple Inc. 设计、制造和营销智能手机、个人计算机、平板电脑、穿戴式设备和配件,并销售各种相关服务。

Arm 徽标

实验组

“OpenXLA 项目标志着在简化机器学习软件开发之路上的一个重要里程碑。我们完全支持 OpenXLA 的使命,并期待在 Arm® NeoverseTM 硬件和软件路线图中充分利用 OpenXLA 的稳定性和标准化。”- Peter Greenhalgh,Arm 技术副总裁兼研究员。

Cerebras 徽标

塞雷布拉斯

“在 Cerebras,我们构建了 AI 加速器,旨在让训练规模最大的 AI 模型既快速又轻松。我们的系统和软件可以满足用户的需求,让您能够使用标准机器学习框架在不做任何更改的情况下实现快速开发、扩缩和迭代。OpenXLA 为 Cerebras Wafer-Scale Engine 提供更高级别机器学习框架的通用接口,从而扩大了我们的用户覆盖范围,并加快了解决问题的速度。我们很高兴看到 OpenXLA 生态系统在 GitHub 上能够为更广泛的社区互动、贡献和使用。”- Andy Hock,Cerebras Systems 副总裁兼产品主管

Google 徽标

Google

“开源软件让每个人都有机会在 AI 领域取得突破。在 Google,我们正在协作开展 OpenXLA 项目,以进一步实现我们对开源的承诺,并促进对 AI 工具的采用。这些工具可以提高机器学习性能的标准,解决框架和硬件之间的不兼容问题,并且可以重新配置,以满足开发者的定制用例。我们很高兴与 OpenXLA 社区一起开发这些工具,以便开发者能够在 AI 堆栈的许多不同层面上推动进步。”- Jeff Dean,Google 研究和 AI 高级研究员兼高级副总裁

Graphcore 徽标

方格核

“自 XLA 公开以来,我们的 IPU 编译器流水线就使用了它。得益于 XLA 的平台独立性和稳定性,它可为开发新型芯片提供理想的前端。XLA 的灵活性使我们能够公开 IPU 的新硬件功能,并借助多个框架实现一流的性能。每天数百万个查询由运行 XLA 编译的代码的系统处理。我们对 OpenXLA 的发展方向感到兴奋,并希望继续为开源项目做贡献。我们相信,它将成为未来 AI/机器学习的一个核心组件。”- David Norman,Graphcore 软件设计总监

Hugging Face 徽标

拥抱的表情

“在任何硬件上轻松高效地运行任何模型是一项深层技术挑战,也是我们“普及良好机器学习技术的普及”的使命的重要目标。在 Hugging Face 上,我们为 TensorFlow 文本生成模型启用了 XLA,并实现了约 100 倍的速度。此外,我们还与 Intel、AWS、Habana、Graphcore、AMD、Qualcomm 和 Google 的工程团队密切合作,在框架和每个芯片之间构建开源桥梁,通过我们的 Optimum 库为最终用户提供开箱即用的效率。OpenXLA 承诺提供标准化构建块,我们可以基于这些构建块构建急需的互操作性,我们迫不及待地想要跟进并做出贡献!”- Morgan Funtowicz,Hugging Face 机器学习优化主管 Morgan Funtowicz

Intel 徽标

Intel

“在 Intel,我们坚信 AI 的开放、民主化。Intel CPU、GPU、Habana Gaudi 加速器和依托 OneAPI 的 AI 软件(包括 OpenVINO)可驱动从百亿亿次级超级计算机到大型云端部署的各种机器学习工作负载。我们与其他 OpenXLA 成员一起努力为基于标准的组件化机器学习编译器工具提供支持,这些工具能推动多种框架和硬件环境的创新,从而加速改变世界的科学和研究。”- Greg Lavender,Intel 高级副总裁兼软件与高级技术部首席技术官兼总经理

Meta 徽标

Meta

“在 Meta AI 的研究中,我们一直在使用 OpenXLA 项目的核心技术 XLA 为 Cloud TPU 启用 PyTorch 模型,并在重要项目上实现了显著的性能提升。我们相信开源会加快全世界的创新步伐,并为 OpenXLA 项目贡献一份激动人心的成果。”- Soumith Chintala,PyTorch 首席维护者

NVIDIA 徽标

NVIDIA

“作为 OpenXLA 项目的创始成员,NVIDIA 期待与 OpenXLA 社区合作推动 AI/机器学习的进步,并且认为随着 OpenXLA 的更广泛的参与和采用,机器学习开发者将能够获享先进的 AI 基础架构。”- Roger Bringmann,NVIDIA 编译器软件副总裁。