XLA

XLA (Accelerated Linear Algebra) ist ein Open-Source-Compiler für maschinelles Lernen. Der XLA-Compiler übernimmt Modelle aus gängigen Frameworks wie PyTorch, TensorFlow und JAX und optimiert die Modelle für eine leistungsstarke Ausführung auf verschiedenen Hardwareplattformen wie GPUs, CPUs und ML-Beschleunigern. In einer BERT-MLPerf-Einreichung erreichte die Verwendung von XLA mit 8 Volta V100-GPUs beispielsweise eine Leistungsverbesserung um das 7-Fache und eine Batchgrößenverbesserung um das 5-Fache im Vergleich zu denselben GPUs ohne XLA.

XLA wird im Rahmen des OpenXLA-Projekts gemeinsam von branchenführenden ML-Hardware- und Softwareunternehmen wie Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta und NVIDIA entwickelt.

Hauptvorteile

  • Build überall: XLA ist bereits in führende ML-Frameworks wie TensorFlow, PyTorch und JAX eingebunden.

  • Überall ausführen: Der Dienst unterstützt verschiedene Back-Ends, einschließlich GPUs, CPUs und ML-Beschleunigern, und enthält eine Plug-in-Infrastruktur, die weitere Unterstützung bietet.

  • Leistung maximieren und skalieren: Die Leistung eines Modells wird durch in der Produktion getestete Optimierungsdurchläufe und eine automatisierte Partitionierung für Modellparallelität optimiert.

  • Effizienz beseitigen: Es nutzt die Leistungsfähigkeit von MLIR, um die besten Funktionen in einer einzelnen Compiler-Toolchain bereitzustellen, sodass Sie keine Reihe von domainspezifischen Compilern verwalten müssen.

  • Zukunftssicher: XLA ist ein Open-Source-Projekt, das in Zusammenarbeit führender ML-Hardware- und -Softwareanbieter entwickelt wurde und als Vorreiter der ML-Branche entwickelt wurde.

Dokumentation

Weitere Informationen zu XLA findest du unter den Links auf der linken Seite. Wenn Sie ein neuer XLA-Entwickler sind, sollten Sie mit der XLA-Architektur beginnen und dann Codeüberprüfungen lesen.