OpenXLA
即将举办的活动
OpenXLA Dev Lab 2024 年 4 月
PJRT
简介
行业合作伙伴
阿里巴巴
“在阿里巴巴,Elastic GPU Service 客户利用 OpenXLA 来训练和服务大型 PyTorch 模型。我们发现,使用 OpenXLA 的客户在性能方面得到了显著提升,特别是在 NVIDIA GPU 上将 GPT2 和 Swin Transformer 提升速度分别提高了 72% 和 88%。我们很自豪能够成为 OpenXLA 项目的创始成员,并与开源社区合作开发先进的机器学习编译器,为阿里云云客户提供卓越的性能和用户体验。”- Yangqing Jia,阿里巴巴 AI 和数据分析副总裁
Amazon Web Services
“我们很高兴能成为 OpenXLA 项目的创始成员,该项目将让更多人使用高性能、可扩缩和可扩展的 AI 基础架构,并通过开源社区进一步开展协作,推动创新。AWS 的客户将他们的生成式 AI 应用扩展到 AWS Trainium 和 Inferentia,而我们的 Neuron SDK 则依靠 XLA 来优化机器学习模型,从而实现高性能和一流的每瓦特性能。有了强大的 OpenXLA 生态系统,开发者可以持续创新,通过可持续的机器学习基础架构提供出色的性能,并且知道他们的代码可以移植到所选的硬件上。”- Nafea Bshara,AWS 副总裁兼杰出工程师
AMD
“我们非常期待 OpenXLA 在各类 AMD 设备(CPU、GPU、AIE)上的未来发展方向,并为能成为这个社区的一员而感到自豪。我们重视具有开放治理、灵活和广泛适用性、先进功能和顶尖性能的项目,期待继续合作,为机器学习开发者拓展开源生态系统。” - Alan Lee,AMD 软件开发部公司副总裁
任意规模
“Anyscale 公司像 Ray 一样开发开放、可扩展的技术,帮助 AI 从业者更快地开发应用并提供给更多用户。最近,我们与 ALPA 项目合作,使用 OpenXLA 大规模展示适用于大语言模型的高性能模型训练。我们非常高兴参加 OpenXLA,也很高兴看到这项开源工作能够在更广泛的硬件平台上高效运行 AI 工作负载,从而降低进入门槛、降低成本并更快地推进 AI 领域。”- Anyscale 首席技术官 Philipp Moritz
苹果
Apple Inc. 设计、制造和营销智能手机、个人计算机、平板电脑、穿戴式设备和配件,并销售各种相关服务。
Arm
“OpenXLA 项目标志着在简化机器学习软件开发道路上的一个重要里程碑。我们完全支持 OpenXLA 的使命,并期待在 Arm® NeoverseTM 硬件和软件路线图中利用 OpenXLA 的稳定性和标准化功能。”- Arm 技术副总裁兼研究员 Peter Greenhalgh
大脑
“Cerebras 构建了 AI 加速器,旨在让训练规模最大的 AI 模型变得轻松快捷。我们的系统和软件可以满足用户的需求,让您能够使用标准机器学习框架快速进行开发、扩缩和迭代,而无需更改任何变更。OpenXLA 通过为 Cerebras Wafer-Scale Engine 提供指向更高层级机器学习框架的通用接口,帮助我们扩大了用户覆盖范围,并加快了获得解决方案的速度。我们非常高兴看到 OpenXLA 生态系统在 GitHub 上为更广泛的社区参与、贡献和使用提供助力。”- Andy Hock,Cerebras Systems 副总裁兼产品主管
“开源软件让每个人都有机会帮助在 AI 领域取得突破。在 Google,我们正在就 OpenXLA 项目开展协作,以进一步强化我们对开源的承诺,并促进对 AI 工具的采用。这些工具能够提高机器学习性能的标准,解决框架和硬件之间的不兼容性问题,并且可以重新配置,从而满足开发者的定制用例。我们很高兴能与 OpenXLA 社区一起开发这些工具,以便开发者能够在 AI 堆栈的许多不同层面上推动进步。”- Jeff Dean,Google 研究和 AI 部高级副总裁兼高级副总裁
方格核
“自 XLA 上市以来,我们的 IPU 编译器管道就使用了它。得益于 XLA 的平台独立性和稳定性,它提供了一个理想的前端,有助于开发出新型芯片。XLA 的灵活性使我们能够公开 IPU 的新硬件功能,并通过多个框架实现一流的性能。每天由运行 XLA 编译的代码的系统处理数百万次查询。我们对 OpenXLA 的发展方向感到非常兴奋,并希望继续为开源项目做贡献。我们相信,它将成为 AI/机器学习的未来核心组件。”- David Norman,Graphcore 软件设计总监
Hugging Face
“在任何硬件上轻松高效运行任何模型是一项深层技术挑战,也是我们致力于普及良好机器学习的使命的一个重要目标。在 Hugging Face 上,我们为 TensorFlow 文本生成模型启用了 XLA,并实现了约 100 倍的提速。此外,我们还与 Intel、AWS、Habana、Graphcore、AMD、Qualcomm 和 Google 的工程团队密切合作,在框架和每个芯片之间构建开源桥梁,通过我们的 Optimum 库为最终用户提供开箱即用的效率。OpenXLA 承诺提供标准化构建块,我们可以通过这些构建块构建非常需要的互操作性,我们迫不及待地想要跟进并做出贡献!”- Morgan Funtowicz,Hugging Face 机器学习优化主管
Intel
“Intel 坚信,要让 AI 的使用能够开放、民主化。Intel CPU、GPU、Habana Gaudi 加速器和由 OneAPI 提供支持的 AI 软件(包括 OpenVINO)可以在任何地方驱动机器学习工作负载,从百亿亿级超级计算机到大型云部署。我们与其他 OpenXLA 成员一起,努力支持基于标准的组件化机器学习编译器工具,这些工具能够推动多个框架和硬件环境之间的创新,从而加速改变世界变革的科学研究。”- Greg Lavender,Intel 软件与高级技术部首席技术官兼总经理
Meta
“在 Meta AI 的研究阶段,我们一直在使用 OpenXLA 项目的核心技术 XLA,为 Cloud TPU 启用 PyTorch 模型,并显著提升了重要项目的性能。我们相信开源会加快全世界的创新步伐,并且对参与 OpenXLA 项目感到非常兴奋。”- Soumith Chintala,PyTorch 首席维护者
NVIDIA
“作为 OpenXLA 项目的创始成员,NVIDIA 期待与 OpenXLA 社区合作推进 AI/机器学习方面的进展,并坚信,随着更多人参与 OpenXLA,机器学习开发者将获享先进的 AI 基础设施。”- Roger Bringmann,NVIDIA 编译器软件部副总裁。