XLA

XLA (Accelerated Linear Algebra) to kompilator typu open source przeznaczony do systemów uczących się. Kompilator XLA wykorzystuje modele z popularnych platform, takich jak PyTorch, TensorFlow i JAX, i optymalizuje modele pod kątem wysokiej wydajności na różnych platformach sprzętowych, w tym GPU, procesorach i akceleratorach ML. Na przykład w zgłoszeniu BERT MLPerf użycie układów XLA z GPU 8 Volta V100 pozwoliło uzyskać około 7 razy większą wydajność i około 5 razy większy rozmiar wsadu w porównaniu do tych samych GPU bez XLA.

W ramach projektu OpenXLA XLA powstała wspólnie przez jedną z największych w branży firm zajmujących się sprzętem i oprogramowaniem ML, takimi jak Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta i NVIDIA.

Najważniejsze zalety

  • Twórz w dowolnym miejscu: język XLA jest już zintegrowany z wiodącymi platformami ML, takimi jak TensorFlow, PyTorch i JAX.

  • Działa w dowolnym miejscu: obsługuje różne backendy, w tym GPU, procesory i akceleratory ML, a także udostępnia podłączoną infrastrukturę, aby zapewnić obsługę większej liczby zasobów.

  • Maksymalizuj i skaluj wydajność: optymalizuje wydajność modelu za pomocą testów produkcyjnych sprawdzonych w ramach optymalizacji i automatycznego partycjonowania pod kątem paralelizmu modeli.

  • Eliminowanie złożoności: wykorzystuje możliwości MLIR, aby udostępnić najlepsze możliwości w pojedynczym łańcuchu narzędzi kompilatora, dzięki czemu nie musisz zarządzać wieloma kompilatorami w danej domenie.

  • Przygotowanie na przyszłość: XLA to projekt open source stworzony we współpracy z czołowymi dostawcami sprzętu i oprogramowania ML, zaprojektowany z myślą o działaniu najnowocześniejszym w branży ML.

Dokumentacja

Aby dowiedzieć się więcej o XLA, kliknij linki po lewej stronie. Jeśli jesteś nowym deweloperem XLA, zacznij od architektury XLA, a potem przeczytaj weryfikacje kodu.