XLA

XLA (Accelerated Linear Algebra) est un compilateur Open Source pour le machine learning. Le compilateur XLA prend les modèles de frameworks populaires tels que PyTorch, TensorFlow et JAX, et les optimise pour une exécution hautes performances sur différentes plates-formes matérielles, y compris les GPU, les processeurs et les accélérateurs de ML.

Dans le cadre du projet OpenXLA, XLA est développé en collaboration par des entreprises de matériel et de logiciels de ML leaders du secteur, dont Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta et NVIDIA.

Principaux avantages

  • Créez partout: XLA est déjà intégré aux principaux frameworks de ML, tels que TensorFlow, PyTorch et JAX.

  • Exécution partout: il est compatible avec divers backends, y compris les GPU, les processeurs et les accélérateurs de ML, et inclut une infrastructure enfichable pour ajouter d'autres fonctionnalités.

  • Maximiser et faire évoluer les performances: optimise les performances d'un modèle avec des passes d'optimisation testées en production et un partitionnement automatique pour le parallélisme du modèle.

  • Éliminez la complexité: il exploite la puissance de MLIR pour intégrer les meilleures fonctionnalités dans une seule chaîne d'outils de compilation. Vous n'avez donc pas à gérer une gamme de compilateurs spécifiques au domaine.

  • Prêt pour l'avenir: en tant que projet Open Source, conçu grâce à la collaboration de principaux fournisseurs de matériel et de logiciels de ML, XLA est conçu pour fonctionner à la pointe de l'industrie du ML.

Documentation

Pour en savoir plus sur XLA, consultez les liens sur la gauche. Si vous êtes un nouveau développeur XLA, nous vous recommandons de commencer par Architecture XLA, puis de lire Contribuer.