Otwarty ekosystem obejmujący wydajne, przenośne i elastyczne komponenty infrastruktury systemów uczących się, które upraszczają tworzenie systemów uczących się przez defragmentację narzędzi między platformami frontendu a backendami sprzętowymi. Stworzone przez liderów branży w dziedzinie modelowania AI, oprogramowania i sprzętu.
Kompilator systemów uczących się (ML) dla GPU, procesorów i akceleratorów ML.
Przenośny zestaw opcji do eksportowania platformy, wprowadzania danych kompilatora i obniżania niezależnie od sprzętu.
Niezależny od sprzętu i platformy interfejs dla kompilatorów i środowisk wykonawczych systemów uczących się.

Dołącz do społeczności OpenXLA

Dołącz do listy adresowej Openxla-Ogłoszenie, aby otrzymywać wiadomości o nowych wersjach, wydarzeniach i inne ważne aktualności.
Dołącz do listy adresowej openxla-dyskusja na temat projektowania i programowania.
Przejrzyj notatki z poprzednich spotkań i dodaj nadchodzące spotkania do swojego kalendarza.
Odwiedź projekt OpenXLA i repozytoria na GitHubie.

Wesprzyj OpenXLA

Te samouczki pomogą Ci zacząć pracę jako współtwórca OpenXLA.
XLA (Accelerated Linear Algebra) to kompilator typu open source dla systemów uczących się. Kompilator XLA wykorzystuje modele z popularnych platform, takich jak PyTorch, TensorFlow i JAX, i optymalizuje modele pod kątem wysokiej wydajności na różnych platformach sprzętowych, takich jak GPU, procesory i akceleratory ML.
Zacznij programować projekt XLA.
StableHLO to operacja ustawiona na potrzeby operacji wysokiego poziomu w modelach systemów uczących się. Zasadniczo jest to warstwa przenośności między różnymi platformami ML i kompilatorami ML: platformy systemów uczących się, które tworzą programy StableHLO, są zgodne z kompilatorami ML, które używają programów StableHLO.
Dokumentacja na temat operacji XLA i StableHLO.

Partnerzy branżowi

Projekt OpenXLA jest opracowywany wspólnie przez czołowe organizacje zajmujące się sprzętem i oprogramowaniem ML.
Logo Alibaba

alibaba

„W Alibaba klienci korzystający z OpenXLA mogą korzystać z usługi Elastic GPU Service do trenowania i obsługi dużych modeli PyTorch. Zaobserwowaliśmy znaczną poprawę wydajności w przypadku klientów korzystających z formatu OpenXLA. Znacznie przyspieszyliśmy o 72% w przypadku tagów GPT2 i o 88% w przypadku procesorów graficznych NVIDIA. Jesteśmy dumni z tego, że jesteśmy członkiem-założycielem projektu OpenXLA. Współpracujemy ze społecznością open source nad opracowaniem zaawansowanego kompilatora systemów uczących się, który zapewni klientom Alibaba Cloud doskonałą wydajność i wygodę użytkowania”. Yangqing Jia, wiceprezes ds. AI i analizy danych, Alibaba

Logo Amazon Web Services

Amazon Web Services

„Cieszymy się, że jesteśmy członkiem-założycielem projektu OpenXLA, który upowszechni dostęp do wydajnej, skalowalnej i rozległej infrastruktury AI, a także umożliwi dalszą współpracę w ramach społeczności open source w celu zwiększania innowacyjności. W AWS nasi klienci skalują swoje aplikacje wykorzystujące generatywną AI za pomocą AWS Trainium i Inferentia, a nasz pakiet Neuron SDK korzysta z XLA do optymalizowania modeli ML pod kątem wysokiej wydajności i najwyższej w swojej klasie wydajności na wat. Dzięki solidnemu ekosystemowi OpenXLA deweloperzy mogą nadal wprowadzać innowacje i zachować wysoką wydajność dzięki zrównoważonej infrastrukturze ML. Mają też pewność, że ich kod można przenieść na wybrany sprzęt” – Nafea Bshara, wiceprezes i wybitny inżynier AWS

Logo AMD

AMD

„Jesteśmy dumni z przyszłości OpenXLA w szerokiej gamie urządzeń AMD (procesory, GPU, AIE) i jesteśmy dumni z bycia częścią tej społeczności. Cenimy projekty z otwartym zarządzaniem, elastycznym i szerokim zakresem zastosowania, najnowocześniejszymi funkcjami i najlepszą wydajnością. Liczymy na dalszą współpracę na rzecz rozwijania ekosystemu open source dla deweloperów systemów uczących się” – Alan Lee, wiceprezes korporacyjny ds. rozwoju oprogramowania, AMD

Logo Anyscale

Dowolne

„ Anyscale rozwija otwarte i skalowalne technologie, takie jak Ray, aby pomóc osobom zajmującym się sztuczną inteligencją szybciej opracowywać aplikacje i udostępniać je większej liczbie użytkowników. Niedawno nawiązaliśmy współpracę z projektem ALPA w celu wykorzystania OpenXLA do prezentowania wysokiej wydajności trenowania modeli na dużą skalę. Z przyjemnością uczestniczę w programie OpenXLA i cieszymy się, że ten projekt typu open source umożliwia sprawne uruchamianie zadań AI na różnych platformach sprzętowych, a tym samym zmniejsza barierę wejścia, obniżając koszty i szybciej przyspieszając rozwój AI”. – Philipp Moritz, dyrektor ds. technologii, Anyscale

Logo Apple

Jabłko

Apple Inc. projektuje, produkuje i oferuje smartfony, komputery osobiste, tablety, urządzenia do noszenia oraz akcesoria oraz sprzedaje różne powiązane usługi.

Logo Arm

Odmiana

„OpenXLA Project to ważny krok milowy na drodze do uproszczenia tworzenia oprogramowania ML. W pełni popieramy misję OpenXLA i nie możemy się doczekać, aby wykorzystać stabilność i standaryzację OpenXLA w planach rozwoju sprzętu i oprogramowania Arm® NeoverseTM” – Peter Greenhalgh, wiceprezes ds. technologii i Fellow, Arm.

Logo Cerebras

Mózgi

„W Crebras opracowujemy akceleratory AI, które umożliwiają szybkie i łatwe trenowanie nawet największych modeli AI. Nasze systemy i oprogramowanie spotykają się z użytkownikami tam, gdzie się znajdują – umożliwiają szybkie opracowywanie, skalowanie i iteracja przy użyciu standardowych platform systemów uczących się bez żadnych zmian. OpenXLA pomaga zwiększyć zasięg wśród użytkowników i przyspieszyć czas rozwiązania problemu, udostępniając mechanizm Cerebras Wafer-Scale Engine ze wspólnym interfejsem do platform ML wyższego poziomu. Cieszymy się, że ekosystem OpenXLA jest dostępny na GitHubie w jeszcze szerszym zakresie, dzięki czemu społeczność może bardziej się zaangażować i wykorzystywać”. – Andy Hock, wiceprezes i dyrektor ds. produktu w firmie Cerebras Systems

Logo Google

Google

„Oprogramowanie open source daje każdemu możliwość pomagania w osiąganiu przełomowych rozwiązań w dziedzinie AI. W Google współpracujemy w ramach projektu OpenXLA, aby jeszcze bardziej umocnić nasze zaangażowanie w budowanie modelu open source i promowanie narzędzi AI, które podnoszą standard wydajności systemów uczących się i rozwiązują problemy ze zgodnością platform oraz sprzętu, a przy tym mogą być konfigurowalne w sposób dostosowany do indywidualnych potrzeb deweloperów. Cieszymy się, że możemy opracowywać te narzędzia razem ze społecznością OpenXLA, aby deweloperzy mogli wprowadzać postępy w wielu różnych warstwach stosu AI” – Jeff Dean, starszy członek i starszy wiceprezes, Google Research i AI”

Logo Graphcore

Grafco

„Nasz potok kompilatora IPU korzysta z XLA od momentu jego upublicznienia. Dzięki niezależności i stabilności platformy XLA stanowi idealne środowisko do promowania nietypowego krzemu. Elastyczność XLA pozwoliła nam zaprezentować nowatorskie funkcje sprzętowe IPU i osiągnąć najnowocześniejsze rozwiązania dzięki wielu platformom. Systemy działające w kodzie skompilowanym przez XLA obsługują miliony zapytań dziennie. Szczególnie cieszymy się na inicjatywę OpenXLA i mamy nadzieję, że będziemy nadal pomagać w tym projekcie. Wierzymy, że stanie się on podstawowym elementem przyszłości sztucznej inteligencji i systemów uczących się” – David Norman, dyrektor ds. projektowania oprogramowania, Graphcore

Logo przytulonej twarzy

Przytulona buźka

„Umożliwienie sprawnego uruchomienia dowolnego modelu na dowolnym sprzęcie to potężne wyzwanie techniczne, a także ważny cel naszej misji, jaką jest upowszechnianie dobrych systemów uczących się. W Hugging Face wdrożyliśmy XLA dla modeli generowania tekstu TensorFlow i osiągnęliśmy przyspieszenie około 100-krotnie. Ponadto ściśle współpracujemy z zespołami inżynierów w firmach Intel, AWS, Habana, Graphcore, AMD, Qualcomm i Google, budując mosty open source między platformami a każdym krzemem. Dzięki naszej bibliotece Optimum użytkownicy mogą od razu korzystać z usługi. OpenXLA obiecuje ustandaryzowane elementy składowe, na których możemy zbudować niezbędną interoperacyjność. Nie możemy się doczekać, by pójść na ten temat i wnieść swój wkład!” – Morgan Funtowicz, dyrektor ds. optymalizacji systemów uczących się, Hugging Face

Logo Intel

Intel

„W firmie Intel wierzymy w otwarty, zdemokratyzowany dostęp do AI. Procesory Intel, procesory graficzne, akceleratory Habana Gaudi i oprogramowanie oparte na interfejsie API OneAPI – w tym OpenVINO – umożliwiają obsługę ML w każdym miejscu – od superkomputerów eksaskalowych po duże wdrożenia w chmurze. Wspólnie z innymi członkami OpenXLA dążymy do zapewnienia opartych na standardach, skomponowanych narzędzi kompilujących ML, które wspomagają wprowadzanie innowacji w wielu środowiskach i platformach sprzętowych w celu przyspieszenia przełomowych badań i nauk ścisłych” – Greg Lavender, starszy wiceprezes ds. technologii Intel, CTO i GM of Software & Advanced Technology Group

Logo Meta

Meta

„W badaniach w Metal AI korzystaliśmy z XLA, podstawowej technologii projektu OpenXLA, do obsługi modeli PyTorch dla Cloud TPU i osiągnięcia znacznej poprawy wydajności w ważnych projektach. Wierzymy, że oprogramowanie open source przyspiesza wprowadzanie innowacji na świecie i cieszymy się, że możemy uczestniczyć w projekcie OpenXLA”. – Soumith Chintala, główny menedżer ds. zarządzania, PyTorch

Logo NVIDIA

NVIDIA

„Jako członek-założyciel projektu OpenXLA, firma NVIDIA ma nadzieję na dalszą współpracę ze społecznością OpenXLA nad rozwojem AI/ML. Cieszy się, że przy większym zaangażowaniu i wdrożeniu OpenXLA deweloperzy ML będą mieli dostęp do najnowocześniejszej infrastruktury AI” – Roger Bringmann, wiceprezes Compiler Software, NVIDIA.