XLA
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
XLA(加速线性代数)是一种用于机器学习的开源编译器。XLA 编译器从 PyTorch、TensorFlow 和 JAX 等常用框架中获取模型,并优化模型以在不同的硬件平台(包括 GPU、CPU 和机器学习加速器)上实现高性能执行。例如,在 BERT MLPerf 提交内容中,与未使用 XLA 的相同 GPU 相比,使用 XLA 搭配 8 Volta V100 GPU 可将性能提升约 7 倍,且批量大小提升约 5 倍。
作为 OpenXLA 项目的一部分,XLA 由行业领先的机器学习硬件和软件公司(包括阿里巴巴、Amazon Web Services、AMD、Apple、Arm、Google、Intel、Meta 和 NVIDIA)协作构建。
主要益处
随处构建:XLA 已经集成到领先的机器学习框架中,如 TensorFlow、PyTorch 和 JAX。
在任何位置运行:它支持各种后端,包括 GPU、CPU 和机器学习加速器,并且包含可插入基础架构以增加对更多后端的支持。
最大限度地提升效果和扩缩性能:它通过生产测试的优化传递和针对模型并行性进行的自动分区,优化模型的性能。
消除复杂性:它利用 MLIR 的强大功能,将最佳功能引入到单个编译器工具链中,因此您无需管理一系列针对特定领域的编译器。
面向未来:XLA 是一个开源项目,由领先的机器学习硬件和软件供应商合作构建,旨在走在机器学习行业的前沿。
文档
如需详细了解 XLA,请参阅下方的指南。如果您是新的 XLA 开发者,则可能需要从 XLA 架构开始,然后阅读代码审核。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-01-10。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"没有我需要的信息"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"太复杂/步骤太多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"内容需要更新"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻译问题"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/代码问题"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"易于理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"解决了我的问题"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]