OpenXLA
Der OpenXLA-Community beitreten
Ankündigungen
Diskussion
Videokonferenzen
GitHub
Zu OpenXLA beitragen
Was ist XLA?
Zu XLA beitragen
Was ist StableHLO?
Referenzdokumentation
Branchenpartner
Alibaba
„Bei Alibaba wird OpenXLA von Kunden des Elastic GPU Service zum Trainieren und Bereitstellen großer PyTorch-Modelle genutzt. Bei Kunden, die OpenXLA verwenden, konnten wir erhebliche Leistungsverbesserungen erzielen, insbesondere Beschleunigungen von 72% für GPT2 und 88% für Swin Transformer auf NVIDIA-GPUs. Wir sind stolz darauf, Gründungsmitglied des OpenXLA-Projekts zu sein und gemeinsam mit der Open-Source-Community einen fortschrittlichen ML-Compiler zu entwickeln, der Alibaba Cloud-Kunden eine erstklassige Leistung und Nutzerfreundlichkeit bietet.“ – Yangqing Jia, VP, AI and Data Analytics, Alibaba
Amazon Web Services
„Wir freuen uns, Gründungsmitglied des OpenXLA-Projekts zu sein, das den Zugang zu einer leistungsfähigen, skalierbaren und erweiterbaren KI-Infrastruktur sowie die weitere Zusammenarbeit innerhalb der Open-Source-Community für Innovationen demokratisiert. Bei AWS skalieren unsere Kunden ihre generativen KI-Anwendungen auf AWS Trainium und Inferentia. Unser Neuron SDK nutzt XLA, um ML-Modelle für hohe Leistung und erstklassige Leistung pro Watt zu optimieren. Dank des robusten OpenXLA-Systems können Entwickler mit einer nachhaltigen ML-Infrastruktur weiterhin innovativ und leistungsstark arbeiten und wissen, dass ihr Code auf die Hardware ihrer Wahl übertragbar ist.“ – Nafea Bshara, Vice President und Distinguished Engineer, AWS
AMD
„Wir freuen uns auf die zukünftige Ausrichtung von OpenXLA in der großen Familie von AMD-Geräten (CPUs, GPUs, AIE) und sind stolz darauf, Teil dieser Community zu sein. Wir schätzen Projekte mit offener Governance, flexibler und breiter Anwendbarkeit, innovativen Funktionen und erstklassiger Leistung und freuen uns auf die weitere Zusammenarbeit zur Erweiterung des Open-Source-Ökosystems für ML-Entwickler.“ – Alan Lee, Corporate Vice President, Software Development, AMD
AnyScale
„Anyscale entwickelt offene und skalierbare Technologien wie Ray, damit KI-Praktiker ihre Anwendungen schneller entwickeln und für mehr Nutzer verfügbar machen können. Kürzlich haben wir uns mit dem ALPA-Projekt zusammengetan, um OpenXLA zu nutzen, um das leistungsstarke Modelltraining für Large Language Models in großem Maßstab zu demonstrieren. Wir freuen uns über die Teilnahme an OpenXLA und sind begeistert, wie diese Open-Source-Initiative die effiziente Ausführung von KI-Arbeitslasten auf einer Vielzahl von Hardwareplattformen ermöglicht. Dadurch wird die Einstiegsbarriere gesenkt, die Kosten gesenkt und die KI schneller vorangebracht.“ – Philipp Moritz, CTO, Anyscale
Apfel
Apple Inc. entwirft, produziert und vermarktet Smartphones, PCs, Tablets, Wearables und Zubehör und verkauft eine Vielzahl zugehöriger Dienstleistungen.
Testverzweigung
„Das OpenXLA-Projekt markiert einen wichtigen Meilenstein auf dem Weg zur Vereinfachung der ML-Softwareentwicklung. Wir unterstützen die OpenXLA-Mission voll und ganz und freuen uns darauf, die Stabilität und Standardisierung von OpenXLA in allen Hardware- und Software-Roadmaps von Arm® NeoverseTM zu nutzen.“ – Peter Greenhalgh, Vice President of Technology and Fellow, Arm.
Zerebras
„Cerebras entwickelt KI-Beschleuniger, mit denen selbst die größten KI-Modelle schnell und einfach trainiert werden können. Unsere Systeme und Software erfüllen die Anforderungen der Nutzer und ermöglichen eine schnelle Entwicklung, Skalierung und Iteration mit standardmäßigen ML-Frameworks. Mit OpenXLA können wir unsere Nutzerreichweite erhöhen und die Bearbeitungszeit verkürzen, indem die Cerebras Wafer-Scale-Engine mit einer gemeinsamen Schnittstelle für übergeordnete ML-Frameworks bereitgestellt wird. Wir freuen uns sehr, dass das OpenXLA-Ökosystem auf GitHub für noch mehr Community-Interaktionen, -beiträge und -nutzung verfügbar ist.“ – Andy Hock, VP und Head of Product, Cerebras Systems
„Open-Source-Software bietet allen die Möglichkeit, bahnbrechende Innovationen im Bereich der KI zu schaffen. Wir bei Google arbeiten am OpenXLA-Projekt zusammen, um unser Engagement für Open Source zu fördern und die Einführung von KI-Tools zu fördern, die den Standard für ML-Leistung erhöhen, Inkompatibilitäten zwischen Frameworks und Hardware beseitigen und sich an maßgeschneiderte Anwendungsfälle von Entwicklern anpassen lassen. Wir freuen uns darauf, diese Tools gemeinsam mit der OpenXLA-Community zu entwickeln, damit Entwickler auf vielen verschiedenen Ebenen des KI-Stacks Fortschritte machen können.“ – Jeff Dean, Senior Fellow und SVP, Google Research and AI
Graphcore
„Unsere IPU-Compiler-Pipeline hat XLA seit der Veröffentlichung verwendet. Dank der Plattformunabhängigkeit und Stabilität von XLA bietet es ein ideales Front-End für die Entwicklung neuartiger Produkte. Dank der Flexibilität von XLA konnten wir die neuen Hardwarefunktionen unseres IPU präsentieren und mit mehreren Frameworks eine hochmoderne Leistung erzielen. Jeden Tag werden Millionen von Abfragen von Systemen verarbeitet, auf denen von XLA kompilierter Code ausgeführt wird. Wir sind von der Leitung von OpenXLA begeistert und hoffen, auch weiterhin zum Open-Source-Projekt beizutragen. Wir glauben, dass es eine Kernkomponente in der Zukunft von KI/ML bilden wird.“ – David Norman, Director of Software Design, Graphcore
Umarmendes Gesicht
„Es ist einfach, jedes Modell auf jeder Hardware effizient auszuführen. Das ist eine große technische Herausforderung und ein wichtiges Ziel für unser Ziel, gutes maschinelles Lernen demokratisieren zu können. Bei Hugging Face haben wir XLA für TensorFlow-Modelle zur Textgenerierung aktiviert und eine bis zu 100-fache Beschleunigung erreicht. Darüber hinaus arbeiten wir eng mit den Engineering-Teams bei Intel, AWS, Habana, Graphcore, AMD, Qualcomm und Google zusammen und bauen Open-Source-Brücken zwischen Frameworks und jedem Silicon auf, um Endnutzern über unsere Optimum-Bibliothek sofortige Effizienz zu bieten. OpenXLA verspricht standardisierte Bausteine, auf denen wir die dringend benötigte Interoperabilität aufbauen können, und wir können es kaum erwarten, uns zu folgen und einen Beitrag zu leisten!“ – Morgan Funtowicz, Head of Machine Learning Optimization, Hugging Face
Logo: Intel
„Wir bei Intel glauben an einen offenen, demokratisierten Zugang zu KI. Intel-CPUs, GPUs, Habana-Gaudi-Beschleuniger und eine API-gestützte KI-Software wie OpenVINO fördern ML-Arbeitslasten überall, von Exascale-Supercomputern bis hin zu großen Cloud-Bereitstellungen. Gemeinsam mit anderen OpenXLA-Mitgliedern möchten wir standardbasierte, komponentenbasierte ML-Compiler-Tools unterstützen, die Innovationen über mehrere Frameworks und Hardwareumgebungen hinweg vorantreiben, um bahnbrechende Wissenschaft und Forschung zu beschleunigen.“ – Greg Lavender, Intel SVP, CTO und GM der Software & Advanced Technology Group
Meta
„Bei der Forschung bei Meta AI haben wir XLA verwendet, eine Kerntechnologie des OpenXLA-Projekts, um PyTorch-Modelle für Cloud TPUs zu ermöglichen. Dadurch konnten wir bei wichtigen Projekten erhebliche Leistungsverbesserungen erzielen. Wir sind davon überzeugt, dass Open Source das Innovationstempo in der Welt beschleunigt, und freuen uns, ein Teil des OpenXLA-Projekts zu sein.“ – Soumith Chintala, Lead Maintainer, PyTorch
Logo: NVIDIA
„Als Gründungsmitglied des OpenXLA-Projekts freut sich NVIDIA darauf, gemeinsam mit der OpenXLA-Community an den Fortschritten im Bereich KI/ML zu arbeiten. Wir sind überzeugt, dass ML-Entwickler durch eine stärkere Einbindung und Einführung von OpenXLA mit einer hochmodernen KI-Infrastruktur ausgestattet werden können.“ – Roger Bringmann, VP, Compiler Software, NVIDIA.