XLA (Accelerated Linear Algebra) est un compilateur Open Source de machine learning. Le compilateur XLA exploite des modèles issus de frameworks populaires tels que PyTorch, TensorFlow et JAX, et les optimise pour une exécution hautes performances sur différentes plates-formes matérielles, y compris les GPU, les processeurs et les accélérateurs de ML. Par exemple, dans une envoi BERT MLPerf, l'utilisation de XLA avec huit GPU Volta V100 a permis d'améliorer les performances d'environ 7 fois et la taille de lot environ 5 fois par rapport aux mêmes GPU sans XLA.
Dans le cadre du projet OpenXLA, XLA est développé en collaboration par des éditeurs de matériel et de logiciels de ML leaders sur le marché, comme Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta et NVIDIA.
Principaux avantages
Compilez où que vous soyez: XLA est déjà intégré aux principaux frameworks de ML tels que TensorFlow, PyTorch et JAX.
Exécution n'importe où: cette plate-forme est compatible avec divers backends, y compris les GPU, les processeurs et les accélérateurs de ML, et inclut une infrastructure enfichable pour en ajouter davantage.
Maximiser et faire évoluer les performances: optimise les performances d'un modèle avec des passes d'optimisation testées en production et le partitionnement automatisé pour le parallélisme des modèles.
Éliminez la complexité: il exploite la puissance de MLIR pour intégrer les meilleures fonctionnalités dans une seule chaîne d'outils de compilation, afin que vous n'ayez pas à gérer une plage de compilateurs spécifiques à un domaine.
Prêt pour l'avenir: en tant que projet Open Source, conçu grâce à la collaboration d'éditeurs de logiciels et de matériel de ML de premier plan, XLA est conçu pour fonctionner à la pointe du secteur du ML.
Documentation
Pour en savoir plus sur XLA, consultez les liens à gauche. Si vous êtes un nouveau développeur XLA, vous pouvez commencer par l'architecture XLA, puis lire la section Examens de code.