XLA
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
XLA(加速线性代数)是一款机器学习开源编译器。XLA 编译器会从 PyTorch、TensorFlow 和 JAX 等热门框架中获取模型,并对这些模型进行优化,以便在不同的硬件平台(包括 GPU、CPU 和机器学习加速器)上实现高性能执行。
XLA 是 OpenXLA 项目的一部分,由业界领先的机器学习硬件和软件公司(包括阿里巴巴、Amazon Web Services、AMD、Apple、Arm、Google、Intel、Meta 和 NVIDIA)共同构建。
主要优势
随时随地构建:XLA 已集成到 TensorFlow、PyTorch 和 JAX 等领先机器学习框架中。
可在任何位置运行:它支持各种后端,包括 GPU、CPU 和机器学习加速器,并包含可插拔的基础架构,以添加对更多后端的支持。
最大限度提升性能并实现性能扩展:它通过经过生产环境测试的优化传递和自动分区来优化模型的性能,以实现模型并行性。
消除复杂性:它利用 MLIR 的强大功能,将最强大的功能集成到单个编译器工具链中,因此您无需管理一系列特定领域的编译器。
面向未来:作为一个由领先机器学习硬件和软件供应商联合打造的开源项目,XLA 旨在运用机器学习行业的尖端技术。
文档
如需详细了解 XLA,请查看左侧的链接。如果您是 XLA 开发新手,不妨先阅读 XLA 架构,然后再阅读贡献。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-12-03。
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["没有我需要的信息","missingTheInformationINeed","thumb-down"],["太复杂/步骤太多","tooComplicatedTooManySteps","thumb-down"],["内容需要更新","outOfDate","thumb-down"],["翻译问题","translationIssue","thumb-down"],["示例/代码问题","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2024-12-03。"],[],[]]