XLA (Accelerated Linear Algebra) adalah compiler open source untuk machine learning. Compiler XLA mengambil model dari framework populer seperti PyTorch, TensorFlow, dan JAX, serta mengoptimalkan model untuk eksekusi berperforma tinggi di berbagai platform hardware termasuk GPU, CPU, dan akselerator ML. Misalnya, dalam pengiriman BERT MLPerf, penggunaan XLA dengan 8 GPU Volta V100 mencapai peningkatan performa sebesar ~7x lipat dan peningkatan ukuran batch ~5x dibandingkan dengan GPU yang sama tanpa XLA.
Sebagai bagian dari project OpenXLA, XLA dibangun secara kolaboratif oleh perusahaan hardware dan software ML terdepan di industri, termasuk Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta, dan NVIDIA.
Manfaat utama
Build Anywhere: XLA sudah terintegrasi ke dalam framework ML terkemuka seperti TensorFlow, PyTorch, dan JAX.
Jalankan di mana saja: Platform ini mendukung berbagai backend, termasuk GPU, CPU, dan akselerator ML, serta menyertakan infrastruktur yang dapat dicocokkan untuk menambahkan dukungan untuk lebih banyak lagi.
Memaksimalkan dan menskalakan performa: Fitur ini mengoptimalkan performa model dengan kesempatan pengoptimalan yang teruji produksi dan partisi otomatis untuk paralelisme model.
Menghilangkan kompleksitas: Hal ini memanfaatkan kecanggihan MLIR untuk menghadirkan kemampuan terbaik ke dalam satu toolchain compiler, sehingga Anda tidak perlu mengelola berbagai compiler khusus domain.
Siap untuk masa depan: Sebagai project open source, yang dibangun melalui kolaborasi dengan vendor hardware dan software ML terkemuka, XLA dirancang untuk beroperasi di industri ML yang mutakhir.
Dokumentasi
Untuk mempelajari lebih lanjut tentang XLA, lihat tautan di sebelah kiri. Jika Anda adalah developer XLA baru, sebaiknya mulai dengan arsitektur XLA, lalu baca Peninjauan kode.