XLA

XLA(加速线性代数)是一种用于机器学习的开源编译器。XLA 编译器从 PyTorch、TensorFlow 和 JAX 等常用框架中获取模型,并优化模型以在不同的硬件平台(包括 GPU、CPU 和机器学习加速器)上实现高性能执行。例如,在 BERT MLPerf 提交内容中,与未使用 XLA 的相同 GPU 相比,使用 XLA 搭配 8 Volta V100 GPU 可将性能提升约 7 倍,且批量大小提升约 5 倍。

作为 OpenXLA 项目的一部分,XLA 由行业领先的机器学习硬件和软件公司(包括阿里巴巴、Amazon Web Services、AMD、Apple、Arm、Google、Intel、Meta 和 NVIDIA)协作构建。

主要益处

  • 随处构建:XLA 已经集成到领先的机器学习框架中,如 TensorFlow、PyTorch 和 JAX。

  • 在任何位置运行:它支持各种后端,包括 GPU、CPU 和机器学习加速器,并且包含可插入基础架构以增加对更多后端的支持。

  • 最大限度地提升效果和扩缩性能:它通过生产测试的优化传递和针对模型并行性进行的自动分区,优化模型的性能。

  • 消除复杂性:它利用 MLIR 的强大功能,将最佳功能引入到单个编译器工具链中,因此您无需管理一系列针对特定领域的编译器。

  • 面向未来:XLA 是一个开源项目,由领先的机器学习硬件和软件供应商合作构建,旨在走在机器学习行业的前沿。

文档

如需详细了解 XLA,请参阅下方的指南。如果您是新的 XLA 开发者,则可能需要从 XLA 架构开始,然后阅读代码审核