XLA (Accelerated Linear Algebra) to kompilator typu open source do uczenia maszynowego. Kompilator XLA pobiera modele z popularnych platform, takich jak PyTorch, TensorFlow i JAX, i optymalizuje je pod kątem wydajnego działania na różnych platformach sprzętowych, w tym na procesorach graficznych, procesorach CPU i przyspiescznikach ML.
W ramach projektu OpenXLA XLA jest tworzona wspólnie przez wiodące firmy z branży sprzętu i oprogramowania do uczenia maszynowego, w tym Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta i NVIDIA.
Główne zalety
Tworzenie w dowolnym miejscu: XLA jest już zintegrowana z najpopularniejszymi platformami ML, takimi jak TensorFlow, PyTorch i JAX.
Możliwość uruchamiania w dowolnym miejscu: obsługuje różne backendy, w tym GPU, procesory i przyspieszacze ML, a także zawiera infrastrukturę z możliwością podłączenia, która umożliwia dodanie obsługi kolejnych backendów.
Maksymalizacja i rozwijanie skuteczności: optymalizuje skuteczność modelu za pomocą testowanych w produkcji przejść optymalizacji i automatycznego podziału na partycje w celu zapewnienia równoległości modelu.
Uproszczenie: wykorzystuje możliwości MLIR, aby zapewnić najlepsze możliwości w ramach jednej toolchain kompilatora, dzięki czemu nie musisz zarządzać wieloma kompilatorami do różnych dziedzin.
Gotowy na przyszłość: XLA to projekt open source stworzony we współpracy z wiodącymi dostawcami sprzętu i oprogramowania do uczenia maszynowego. Został on zaprojektowany tak, aby działać na najwyższym poziomie w branży uczenia maszynowego.
Dokumentacja
Aby dowiedzieć się więcej o XLA, kliknij linki po lewej stronie. Jeśli jesteś deweloperem XLA, zacznij od architektury XLA, a potem przeczytaj Udział w rozwoju.