XLA(Accelerated Linear Algebra)は、機械学習用のオープンソース コンパイラです。XLA コンパイラは、PyTorch、TensorFlow、JAX などの一般的なフレームワークからモデルを取り込み、GPU、CPU、ML アクセラレータなどのさまざまなハードウェア プラットフォームで高パフォーマンスの実行ができるようにモデルを最適化します。
XLA は OpenXLA プロジェクトの一環として、Alibaba、Amazon Web Services、AMD、Apple、Arm、Google、Intel、Meta、NVIDIA などの業界をリードする ML ハードウェアおよびソフトウェア企業によって共同で構築されています。
主なメリット
どこでもビルド: XLA は、TensorFlow、PyTorch、JAX などの主要な ML フレームワークにすでに統合されています。
どこでも実行: GPU、CPU、ML アクセラレータなど、さまざまなバックエンドをサポートしています。また、プラグイン可能なインフラストラクチャが含まれているため、サポートを追加できます。
パフォーマンスを最大化し、スケーリングする: 本番環境でテスト済みの最適化パスと、モデルの並列化のための自動パーティショニングにより、モデルのパフォーマンスを最適化します。
複雑さを排除する: MLIR のパワーを活用して、最適な機能を単一のコンパイラ ツールチェーンに統合できるため、さまざまなドメイン固有のコンパイラを管理する必要がなくなります。
将来を見据えた設計: 主要な ML ハードウェア ベンダーとソフトウェア ベンダーのコラボレーションによって構築されたオープンソース プロジェクトである XLA は、ML 業界の最先端で動作するように設計されています。
ドキュメント
XLA について詳しくは、左側のリンクをご覧ください。XLA デベロッパーが初めての場合は、XLA アーキテクチャから始め、貢献をご覧ください。