Ein offenes System aus leistungsfähigen, portablen und erweiterbaren Infrastrukturkomponenten für maschinelles Lernen (ML), die die ML-Entwicklung durch Defragmentierung der Tools zwischen Front-End-Frameworks und Hardware-Back-Ends vereinfachen. Von Branchenführern in Sachen KI-Modellierung, Software und Hardware entwickelt.
Ein ML-Compiler für GPUs, CPUs und ML-Beschleuniger.
Portables Opset für Framework-Export, Compiler-Eingabe und hardwareunabhängige Reduzierung.
Eine von Hardware und Framework unabhängige Schnittstelle für ML-Compiler und Laufzeiten.

Der OpenXLA-Community beitreten

Melde dich für die Mailingliste von openxla-announce an, um Neuigkeiten zu Veröffentlichungen, Veranstaltungen und anderen wichtigen Updates zu erhalten.
Nehmen Sie an der Mailingliste openxla-discuss für Design- und Entwicklungsdiskussionen teil.
Sehen Sie sich Notizen früherer Besprechungen an und fügen Sie anstehende Besprechungen Ihrem Kalender hinzu.
Rufen Sie das OpenXLA-Projekt und die Repositories auf GitHub auf.

Zu OpenXLA beitragen

Diese Anleitungen helfen Ihnen beim Einstieg als Beitragender zu OpenXLA.
XLA (Accelerated Linear Algebra) ist ein Open-Source-Compiler für maschinelles Lernen. Der XLA-Compiler übernimmt Modelle aus gängigen Frameworks wie PyTorch, TensorFlow und JAX und optimiert die Modelle für eine leistungsstarke Ausführung auf verschiedenen Hardwareplattformen, einschließlich GPUs, CPUs und ML-Beschleunigern.
Beginnen Sie mit der Entwicklung des XLA-Projekts.
Stabile HLO ist ein Vorgangssatz für High-Level-Vorgänge (HLO) in Modellen für maschinelles Lernen (ML). Im Wesentlichen handelt es sich dabei um eine Portabilitätsschicht zwischen verschiedenen ML-Frameworks und ML-Compilern: ML-Frameworks, die StableHLO-Programme produzieren, sind mit ML-Compilern kompatibel, die StableHLO-Programme nutzen.
Referenzdokumentation für XLA- und StableHLO-Vorgänge

Branchenpartner

Das OpenXLA-Projekt wird von führenden ML-Hardware- und -Softwareunternehmen gemeinsam entwickelt.
Logo: Alibaba

Alibaba

„Bei Alibaba wird OpenXLA von Kunden des Elastic GPU Service zum Trainieren und Bereitstellen großer PyTorch-Modelle genutzt. Bei Kunden, die OpenXLA verwenden, konnten wir erhebliche Leistungsverbesserungen erzielen, insbesondere Beschleunigungen von 72% für GPT2 und 88% für Swin Transformer auf NVIDIA-GPUs. Wir sind stolz darauf, Gründungsmitglied des OpenXLA-Projekts zu sein und gemeinsam mit der Open-Source-Community einen fortschrittlichen ML-Compiler zu entwickeln, der Alibaba Cloud-Kunden eine erstklassige Leistung und Nutzerfreundlichkeit bietet.“ – Yangqing Jia, VP, AI and Data Analytics, Alibaba

Amazon Web Services-Logo

Amazon Web Services

„Wir freuen uns, Gründungsmitglied des OpenXLA-Projekts zu sein, das den Zugang zu einer leistungsfähigen, skalierbaren und erweiterbaren KI-Infrastruktur sowie die weitere Zusammenarbeit innerhalb der Open-Source-Community für Innovationen demokratisiert. Bei AWS skalieren unsere Kunden ihre generativen KI-Anwendungen auf AWS Trainium und Inferentia. Unser Neuron SDK nutzt XLA, um ML-Modelle für hohe Leistung und erstklassige Leistung pro Watt zu optimieren. Dank des robusten OpenXLA-Systems können Entwickler mit einer nachhaltigen ML-Infrastruktur weiterhin innovativ und leistungsstark arbeiten und wissen, dass ihr Code auf die Hardware ihrer Wahl übertragbar ist.“ – Nafea Bshara, Vice President und Distinguished Engineer, AWS

Logo: AMD

AMD

„Wir freuen uns auf die zukünftige Ausrichtung von OpenXLA in der großen Familie von AMD-Geräten (CPUs, GPUs, AIE) und sind stolz darauf, Teil dieser Community zu sein. Wir schätzen Projekte mit offener Governance, flexibler und breiter Anwendbarkeit, innovativen Funktionen und erstklassiger Leistung und freuen uns auf die weitere Zusammenarbeit zur Erweiterung des Open-Source-Ökosystems für ML-Entwickler.“ – Alan Lee, Corporate Vice President, Software Development, AMD

Logo: Anyscale

AnyScale

„Anyscale entwickelt offene und skalierbare Technologien wie Ray, damit KI-Praktiker ihre Anwendungen schneller entwickeln und für mehr Nutzer verfügbar machen können. Kürzlich haben wir uns mit dem ALPA-Projekt zusammengetan, um OpenXLA zu nutzen, um das leistungsstarke Modelltraining für Large Language Models in großem Maßstab zu demonstrieren. Wir freuen uns über die Teilnahme an OpenXLA und sind begeistert, wie diese Open-Source-Initiative die effiziente Ausführung von KI-Arbeitslasten auf einer Vielzahl von Hardwareplattformen ermöglicht. Dadurch wird die Einstiegsbarriere gesenkt, die Kosten gesenkt und die KI schneller vorangebracht.“ – Philipp Moritz, CTO, Anyscale

Apple-Logo

Apfel

Apple Inc. entwirft, produziert und vermarktet Smartphones, PCs, Tablets, Wearables und Zubehör und verkauft eine Vielzahl zugehöriger Dienstleistungen.

Logo: Arm

Testverzweigung

„Das OpenXLA-Projekt markiert einen wichtigen Meilenstein auf dem Weg zur Vereinfachung der ML-Softwareentwicklung. Wir unterstützen die OpenXLA-Mission voll und ganz und freuen uns darauf, die Stabilität und Standardisierung von OpenXLA in allen Hardware- und Software-Roadmaps von Arm® NeoverseTM zu nutzen.“ – Peter Greenhalgh, Vice President of Technology and Fellow, Arm.

Logo: Cerebras

Zerebras

„Cerebras entwickelt KI-Beschleuniger, mit denen selbst die größten KI-Modelle schnell und einfach trainiert werden können. Unsere Systeme und Software erfüllen die Anforderungen der Nutzer und ermöglichen eine schnelle Entwicklung, Skalierung und Iteration mit standardmäßigen ML-Frameworks. Mit OpenXLA können wir unsere Nutzerreichweite erhöhen und die Bearbeitungszeit verkürzen, indem die Cerebras Wafer-Scale-Engine mit einer gemeinsamen Schnittstelle für übergeordnete ML-Frameworks bereitgestellt wird. Wir freuen uns sehr, dass das OpenXLA-Ökosystem auf GitHub für noch mehr Community-Interaktionen, -beiträge und -nutzung verfügbar ist.“ – Andy Hock, VP und Head of Product, Cerebras Systems

Google-Logo

Google

„Open-Source-Software bietet allen die Möglichkeit, bahnbrechende Innovationen im Bereich der KI zu schaffen. Wir bei Google arbeiten am OpenXLA-Projekt zusammen, um unser Engagement für Open Source zu fördern und die Einführung von KI-Tools zu fördern, die den Standard für ML-Leistung erhöhen, Inkompatibilitäten zwischen Frameworks und Hardware beseitigen und sich an maßgeschneiderte Anwendungsfälle von Entwicklern anpassen lassen. Wir freuen uns darauf, diese Tools gemeinsam mit der OpenXLA-Community zu entwickeln, damit Entwickler auf vielen verschiedenen Ebenen des KI-Stacks Fortschritte machen können.“ – Jeff Dean, Senior Fellow und SVP, Google Research and AI

Logo: Graphcore

Graphcore

„Unsere IPU-Compiler-Pipeline hat XLA seit der Veröffentlichung verwendet. Dank der Plattformunabhängigkeit und Stabilität von XLA bietet es ein ideales Front-End für die Entwicklung neuartiger Produkte. Dank der Flexibilität von XLA konnten wir die neuen Hardwarefunktionen unseres IPU präsentieren und mit mehreren Frameworks eine hochmoderne Leistung erzielen. Jeden Tag werden Millionen von Abfragen von Systemen verarbeitet, auf denen von XLA kompilierter Code ausgeführt wird. Wir sind von der Leitung von OpenXLA begeistert und hoffen, auch weiterhin zum Open-Source-Projekt beizutragen. Wir glauben, dass es eine Kernkomponente in der Zukunft von KI/ML bilden wird.“ – David Norman, Director of Software Design, Graphcore

Hugging Face-Logo

Umarmendes Gesicht

„Es ist einfach, jedes Modell auf jeder Hardware effizient auszuführen. Das ist eine große technische Herausforderung und ein wichtiges Ziel für unser Ziel, gutes maschinelles Lernen demokratisieren zu können. Bei Hugging Face haben wir XLA für TensorFlow-Modelle zur Textgenerierung aktiviert und eine bis zu 100-fache Beschleunigung erreicht. Darüber hinaus arbeiten wir eng mit den Engineering-Teams bei Intel, AWS, Habana, Graphcore, AMD, Qualcomm und Google zusammen und bauen Open-Source-Brücken zwischen Frameworks und jedem Silicon auf, um Endnutzern über unsere Optimum-Bibliothek sofortige Effizienz zu bieten. OpenXLA verspricht standardisierte Bausteine, auf denen wir die dringend benötigte Interoperabilität aufbauen können, und wir können es kaum erwarten, uns zu folgen und einen Beitrag zu leisten!“ – Morgan Funtowicz, Head of Machine Learning Optimization, Hugging Face

Logo: Intel

Logo: Intel

„Wir bei Intel glauben an einen offenen, demokratisierten Zugang zu KI. Intel-CPUs, GPUs, Habana-Gaudi-Beschleuniger und eine API-gestützte KI-Software wie OpenVINO fördern ML-Arbeitslasten überall, von Exascale-Supercomputern bis hin zu großen Cloud-Bereitstellungen. Gemeinsam mit anderen OpenXLA-Mitgliedern möchten wir standardbasierte, komponentenbasierte ML-Compiler-Tools unterstützen, die Innovationen über mehrere Frameworks und Hardwareumgebungen hinweg vorantreiben, um bahnbrechende Wissenschaft und Forschung zu beschleunigen.“ – Greg Lavender, Intel SVP, CTO und GM der Software & Advanced Technology Group

Meta-Logo

Meta

„Bei der Forschung bei Meta AI haben wir XLA verwendet, eine Kerntechnologie des OpenXLA-Projekts, um PyTorch-Modelle für Cloud TPUs zu ermöglichen. Dadurch konnten wir bei wichtigen Projekten erhebliche Leistungsverbesserungen erzielen. Wir sind davon überzeugt, dass Open Source das Innovationstempo in der Welt beschleunigt, und freuen uns, ein Teil des OpenXLA-Projekts zu sein.“ – Soumith Chintala, Lead Maintainer, PyTorch

Logo: NVIDIA

Logo: NVIDIA

„Als Gründungsmitglied des OpenXLA-Projekts freut sich NVIDIA darauf, gemeinsam mit der OpenXLA-Community an den Fortschritten im Bereich KI/ML zu arbeiten. Wir sind überzeugt, dass ML-Entwickler durch eine stärkere Einbindung und Einführung von OpenXLA mit einer hochmodernen KI-Infrastruktur ausgestattet werden können.“ – Roger Bringmann, VP, Compiler Software, NVIDIA.