Écosystème ouvert de composants d'infrastructure de machine learning (ML) performants, portables et extensibles qui simplifient le développement de ML en défragmentant les outils entre les frameworks d'interface et les backends matériels. Conçu par des leaders du secteur dans les domaines de la modélisation, des logiciels et du matériel d'IA.
Compilateur de machine learning (ML) pour les GPU, les processeurs et les accélérateurs de ML.
Opset portable pour l'exportation de frameworks, l'entrée du compilateur et la réduction indépendante du matériel.
Interface indépendante du matériel et du framework pour les compilateurs et les environnements d'exécution de ML.

Rejoignez la communauté OpenXLA

Inscrivez-vous à la liste de diffusion des annonces openxla pour être informé des nouveautés, des événements et d'autres informations importantes.
Rejoignez la liste de diffusion openxla-discuss pour les discussions sur la conception et le développement.
Examinez les notes prises lors de réunions précédentes et ajoutez les prochaines réunions à votre agenda.
Accédez au projet OpenXLA et aux dépôts sur GitHub.

Contribuer à OpenXLA

Ces tutoriels vous aideront à vous lancer en tant que contributeur d'OpenXLA.
XLA (Accelerated Linear Algebra) est un compilateur Open Source pour le machine learning. Le compilateur XLA exploite des modèles issus de frameworks courants tels que PyTorch, TensorFlow et JAX, et les optimise pour une exécution hautes performances sur différentes plates-formes matérielles, y compris les GPU, les processeurs et les accélérateurs ML.
Commencez à développer le projet XLA.
StableHLO est un ensemble d'opérations destiné aux opérations de haut niveau (HLO) dans les modèles de machine learning (ML). En résumé, il s'agit d'une couche de portabilité entre différents frameworks de ML et compilateurs de ML: les frameworks de ML qui génèrent des programmes StableHLO sont compatibles avec les compilateurs de ML qui utilisent des programmes StableHLO.
Documentation de référence pour les opérations XLA et StableHLO.

Partenaires du secteur

Le projet OpenXLA est développé en collaboration par les principales organisations de matériel et de logiciels de ML.
Logo Alibaba

Alibaba

"Chez Alibaba, les clients d'Elastic GPU Service exploitent OpenXLA pour l'entraînement et l'inférence de modèles PyTorch volumineux. Les clients qui utilisent OpenXLA ont constaté une amélioration significative des performances, notamment avec une accélération de 72% pour GPT2 et de 88% pour Swin Transformer sur les GPU NVIDIA. Nous sommes fiers d'être un membre fondateur du projet OpenXLA et de travailler avec la communauté Open Source pour développer un compilateur de ML avancé qui offre des performances et une expérience utilisateur optimales aux clients d'Alibaba Cloud." - Yangqing Jia, vice-président de l'IA et de l'analyse de données, Alibaba

Logo Amazon Web Services

Amazon Web Services

"Nous sommes ravis d'être un membre fondateur du projet OpenXLA, qui va démocratiser l'accès à une infrastructure d'IA performante, évolutive et extensible, ainsi que de renforcer la collaboration au sein de la communauté Open Source pour stimuler l'innovation. Chez AWS, nos clients font évoluer leurs applications d'IA générative sur AWS Trainium et Inferentia. Notre SDK Neuron s'appuie sur XLA pour optimiser les modèles de ML afin d'obtenir des performances élevées et des performances exceptionnelles en watts. Grâce à un écosystème OpenXLA robuste, les développeurs peuvent continuer à innover et à générer d'excellentes performances grâce à une infrastructure de ML durable. Ils savent que leur code peut être utilisé sur le matériel de leur choix." – Nafea Bshara, vice-président et ingénieur distingué, AWS

Logo AMD

AMD

"Nous nous réjouissons de l'avenir d'OpenXLA pour la vaste gamme d'appareils AMD (processeurs, GPU, AIE) et nous sommes fiers de faire partie de cette communauté. Nous valorisons les projets à la gouvernance ouverte, à l'applicabilité flexible et étendue, aux fonctionnalités de pointe et aux performances exceptionnelles. Nous avons hâte de poursuivre cette collaboration afin de développer l'écosystème Open Source pour les développeurs de ML." – Alan Lee, vice-président en charge du développement logiciel, AMD

Logo Anyscale

N'importe quelle échelle

"Anyscale développe des technologies ouvertes et évolutives comme Ray pour aider les professionnels de l'IA à développer leurs applications plus rapidement et à les rendre accessibles à un plus grand nombre d'utilisateurs. Nous avons récemment collaboré avec le projet ALPA afin d'utiliser OpenXLA afin de présenter l'entraînement de modèles hautes performances pour les grands modèles de langage à grande échelle. Nous sommes heureux de participer à OpenXLA et se félicite de la façon dont cet effort Open Source permet d'exécuter efficacement des charges de travail d'IA sur une plus grande variété de plates-formes matérielles. Cela permet de réduire les obstacles à l'entrée, de réduire les coûts et d'accélérer le développement du domaine de l'IA." - Philipp Moritz, directeur de la technologie, Anyscale

Logo Apple

Apple

Apple Inc. conçoit, fabrique et commercialise des smartphones, des ordinateurs personnels, des tablettes, des accessoires connectés et des accessoires, et vend divers services associés.

Logo ARM

Groupe

"Le projet OpenXLA marque une étape importante dans la simplification du développement de logiciels de ML. Nous soutenons pleinement la mission OpenXLA, et nous avons hâte de tirer parti de la stabilité et de la standardisation OpenXLA dans les feuilles de route matérielles et logicielles d'Arm® NeoverseTM." – Peter Greenhalgh, vice-président de la technologie et membre de l'équipe Arm.

Logo Cerebras

Cérébres

"Chez Cerebras, nous développons des accélérateurs d'IA conçus pour faciliter et accélérer l'entraînement de modèles d'IA, même les plus grands. Nos systèmes et logiciels s'adaptent aux besoins des utilisateurs, ce qui leur permet d'accélérer le développement, le scaling et l'itération à l'aide de frameworks de ML standards, sans aucun changement. OpenXLA nous aide à étendre notre couverture d'utilisateurs et à réduire le délai de mise en œuvre en fournissant au moteur Cerebras Wafer-Scale Engine une interface commune aux frameworks de ML de plus haut niveau. Nous sommes très heureux que l'écosystème OpenXLA soit disponible pour un engagement, une contribution et une utilisation encore plus larges de la communauté sur GitHub." – Andy Hock, VP et responsable des produits, Cerebras Systems

Logo Google

Services

"Les logiciels Open Source permettent à chacun d'innover dans le domaine de l'IA. Chez Google, nous collaborons sur le projet OpenXLA pour renforcer notre engagement envers l'Open Source et favoriser l'adoption d'outils d'IA qui améliorent les performances de ML, éliminent les incompatibilités entre les frameworks et le matériel, et sont reconfigurables pour répondre aux cas d'utilisation sur mesure des développeurs. Nous sommes ravis de développer ces outils avec la communauté OpenXLA afin que les développeurs puissent faire progresser les différentes couches de la pile d'IA." – Jeff Dean, Senior Fellow et SVP, Google Research and AI

Logo Graphcore

Graphcore

"Notre pipeline de compilation IPU utilise XLA depuis qu'il a été rendu public. Grâce à l'indépendance et à la stabilité de la plate-forme XLA, la plate-forme offre une interface idéale pour développer une puce novatrice. La flexibilité de XLA nous a permis de présenter les nouvelles fonctionnalités matérielles de l'IPU et d'obtenir des performances optimales avec plusieurs frameworks. Des millions de requêtes sont traitées chaque jour par des systèmes exécutant du code compilé par XLA. Nous sommes ravis de la mise en place d'OpenXLA et espérons continuer à contribuer au projet Open Source. Nous pensons qu'elle constituera une composante essentielle de l'avenir de l'IA et du ML." – David Norman, directeur de la conception logicielle, Graphcore

Logo câlin

Câlin

"Faciliter l'exécution efficace de modèles sur n'importe quel matériel est un défi technique de taille. C'est également un objectif important de notre mission qui consiste à démocratiser l'efficacité du machine learning. Chez Hugging Face, nous avons activé XLA pour les modèles de génération de texte TensorFlow, ce qui nous a permis d'accélérer environ 100 fois. De plus, nous collaborons étroitement avec les équipes d'ingénieurs Intel, AWS, Habana, Graphcore, AMD, Qualcomm et Google, en créant des ponts Open Source entre les frameworks et chaque puce afin d'offrir une efficacité clé en main aux utilisateurs finaux grâce à notre bibliothèque Optimum. OpenXLA promet des composants standardisés sur lesquels nous pourrons développer l'interopérabilité dont nous avons besoin, et nous avons hâte de les suivre et d'apporter notre aide !" – Morgan Funtowicz, responsable de l'optimisation du machine learning, Hugging Face

Logo Intel

Intel

"Chez Intel, nous croyons en un accès ouvert et démocratisé à l'IA. Les processeurs Intel, les GPU, les accélérateurs Habana Gaudi et les logiciels d'IA optimisés par une API comme OpenVINO permettent de piloter les charges de travail de ML partout, des superordinateurs exascale aux grands déploiements dans le cloud. Avec d'autres membres d'OpenXLA, nous cherchons à soutenir des outils de compilation de ML basés sur des normes et composés de composants, qui stimulent l'innovation sur de nombreux frameworks et environnements matériels afin d'accélérer l'évolution de la science et de la recherche." – Greg Lavender, vice-président directeur d'Intel, CTO et directeur général de Software & Advanced Technology Group

Logo Meta

Méta

"Chez Meta AI, nous avons utilisé XLA, une technologie essentielle du projet OpenXLA, pour créer des modèles PyTorch pour les Cloud TPU et améliorer significativement les performances sur des projets importants. Nous sommes convaincus que l'Open Source accélère le rythme de l'innovation dans le monde, et nous sommes ravis de participer au projet OpenXLA." – Soumith Chintala, responsable principal, PyTorch

Logo NVIDIA

NVIDIA

"En tant que membre fondateur du projet OpenXLA, NVIDIA est impatient de collaborer sur les avancées de l'IA et du ML avec la communauté OpenXLA. Avec un engagement et une adoption plus larges d'OpenXLA, les développeurs de ML disposeront d'une infrastructure d'IA de pointe." - Roger Bringmann, vice-président du compilateur logiciel, NVIDIA