OpenXLA
XLA
StableHLO
PJRT,
Dołącz do społeczności OpenXLA
ogłoszeń,
Dyskusja
Spotkania
GitHub
Wesprzyj OpenXLA
Co to jest XLA?
Przekaż darowiznę do XLA
Co to jest StableHLO?
Dokumentacja źródłowa
Partnerzy branżowi
alibaba
„W Alibaba klienci korzystający z OpenXLA mogą korzystać z usługi Elastic GPU Service do trenowania i obsługi dużych modeli PyTorch. Zaobserwowaliśmy znaczną poprawę wydajności w przypadku klientów korzystających z formatu OpenXLA. Znacznie przyspieszyliśmy o 72% w przypadku tagów GPT2 i o 88% w przypadku procesorów graficznych NVIDIA. Jesteśmy dumni z tego, że jesteśmy członkiem-założycielem projektu OpenXLA. Współpracujemy ze społecznością open source nad opracowaniem zaawansowanego kompilatora systemów uczących się, który zapewni klientom Alibaba Cloud doskonałą wydajność i wygodę użytkowania”. Yangqing Jia, wiceprezes ds. AI i analizy danych, Alibaba
Amazon Web Services
„Cieszymy się, że jesteśmy członkiem-założycielem projektu OpenXLA, który upowszechni dostęp do wydajnej, skalowalnej i rozległej infrastruktury AI, a także umożliwi dalszą współpracę w ramach społeczności open source w celu zwiększania innowacyjności. W AWS nasi klienci skalują swoje aplikacje wykorzystujące generatywną AI za pomocą AWS Trainium i Inferentia, a nasz pakiet Neuron SDK korzysta z XLA do optymalizowania modeli ML pod kątem wysokiej wydajności i najwyższej w swojej klasie wydajności na wat. Dzięki solidnemu ekosystemowi OpenXLA deweloperzy mogą nadal wprowadzać innowacje i zachować wysoką wydajność dzięki zrównoważonej infrastrukturze ML. Mają też pewność, że ich kod można przenieść na wybrany sprzęt” – Nafea Bshara, wiceprezes i wybitny inżynier AWS
AMD
„Jesteśmy dumni z przyszłości OpenXLA w szerokiej gamie urządzeń AMD (procesory, GPU, AIE) i jesteśmy dumni z bycia częścią tej społeczności. Cenimy projekty z otwartym zarządzaniem, elastycznym i szerokim zakresem zastosowania, najnowocześniejszymi funkcjami i najlepszą wydajnością. Liczymy na dalszą współpracę na rzecz rozwijania ekosystemu open source dla deweloperów systemów uczących się” – Alan Lee, wiceprezes korporacyjny ds. rozwoju oprogramowania, AMD
Dowolne
„ Anyscale rozwija otwarte i skalowalne technologie, takie jak Ray, aby pomóc osobom zajmującym się sztuczną inteligencją szybciej opracowywać aplikacje i udostępniać je większej liczbie użytkowników. Niedawno nawiązaliśmy współpracę z projektem ALPA w celu wykorzystania OpenXLA do prezentowania wysokiej wydajności trenowania modeli na dużą skalę. Z przyjemnością uczestniczę w programie OpenXLA i cieszymy się, że ten projekt typu open source umożliwia sprawne uruchamianie zadań AI na różnych platformach sprzętowych, a tym samym zmniejsza barierę wejścia, obniżając koszty i szybciej przyspieszając rozwój AI”. – Philipp Moritz, dyrektor ds. technologii, Anyscale
Jabłko
Apple Inc. projektuje, produkuje i oferuje smartfony, komputery osobiste, tablety, urządzenia do noszenia oraz akcesoria oraz sprzedaje różne powiązane usługi.
Odmiana
„OpenXLA Project to ważny krok milowy na drodze do uproszczenia tworzenia oprogramowania ML. W pełni popieramy misję OpenXLA i nie możemy się doczekać, aby wykorzystać stabilność i standaryzację OpenXLA w planach rozwoju sprzętu i oprogramowania Arm® NeoverseTM” – Peter Greenhalgh, wiceprezes ds. technologii i Fellow, Arm.
Mózgi
„W Crebras opracowujemy akceleratory AI, które umożliwiają szybkie i łatwe trenowanie nawet największych modeli AI. Nasze systemy i oprogramowanie spotykają się z użytkownikami tam, gdzie się znajdują – umożliwiają szybkie opracowywanie, skalowanie i iteracja przy użyciu standardowych platform systemów uczących się bez żadnych zmian. OpenXLA pomaga zwiększyć zasięg wśród użytkowników i przyspieszyć czas rozwiązania problemu, udostępniając mechanizm Cerebras Wafer-Scale Engine ze wspólnym interfejsem do platform ML wyższego poziomu. Cieszymy się, że ekosystem OpenXLA jest dostępny na GitHubie w jeszcze szerszym zakresie, dzięki czemu społeczność może bardziej się zaangażować i wykorzystywać”. – Andy Hock, wiceprezes i dyrektor ds. produktu w firmie Cerebras Systems
„Oprogramowanie open source daje każdemu możliwość pomagania w osiąganiu przełomowych rozwiązań w dziedzinie AI. W Google współpracujemy w ramach projektu OpenXLA, aby jeszcze bardziej umocnić nasze zaangażowanie w budowanie modelu open source i promowanie narzędzi AI, które podnoszą standard wydajności systemów uczących się i rozwiązują problemy ze zgodnością platform oraz sprzętu, a przy tym mogą być konfigurowalne w sposób dostosowany do indywidualnych potrzeb deweloperów. Cieszymy się, że możemy opracowywać te narzędzia razem ze społecznością OpenXLA, aby deweloperzy mogli wprowadzać postępy w wielu różnych warstwach stosu AI” – Jeff Dean, starszy członek i starszy wiceprezes, Google Research i AI”
Grafco
„Nasz potok kompilatora IPU korzysta z XLA od momentu jego upublicznienia. Dzięki niezależności i stabilności platformy XLA stanowi idealne środowisko do promowania nietypowego krzemu. Elastyczność XLA pozwoliła nam zaprezentować nowatorskie funkcje sprzętowe IPU i osiągnąć najnowocześniejsze rozwiązania dzięki wielu platformom. Systemy działające w kodzie skompilowanym przez XLA obsługują miliony zapytań dziennie. Szczególnie cieszymy się na inicjatywę OpenXLA i mamy nadzieję, że będziemy nadal pomagać w tym projekcie. Wierzymy, że stanie się on podstawowym elementem przyszłości sztucznej inteligencji i systemów uczących się” – David Norman, dyrektor ds. projektowania oprogramowania, Graphcore
Przytulona buźka
„Umożliwienie sprawnego uruchomienia dowolnego modelu na dowolnym sprzęcie to potężne wyzwanie techniczne, a także ważny cel naszej misji, jaką jest upowszechnianie dobrych systemów uczących się. W Hugging Face wdrożyliśmy XLA dla modeli generowania tekstu TensorFlow i osiągnęliśmy przyspieszenie około 100-krotnie. Ponadto ściśle współpracujemy z zespołami inżynierów w firmach Intel, AWS, Habana, Graphcore, AMD, Qualcomm i Google, budując mosty open source między platformami a każdym krzemem. Dzięki naszej bibliotece Optimum użytkownicy mogą od razu korzystać z usługi. OpenXLA obiecuje ustandaryzowane elementy składowe, na których możemy zbudować niezbędną interoperacyjność. Nie możemy się doczekać, by pójść na ten temat i wnieść swój wkład!” – Morgan Funtowicz, dyrektor ds. optymalizacji systemów uczących się, Hugging Face
Intel
„W firmie Intel wierzymy w otwarty, zdemokratyzowany dostęp do AI. Procesory Intel, procesory graficzne, akceleratory Habana Gaudi i oprogramowanie oparte na interfejsie API OneAPI – w tym OpenVINO – umożliwiają obsługę ML w każdym miejscu – od superkomputerów eksaskalowych po duże wdrożenia w chmurze. Wspólnie z innymi członkami OpenXLA dążymy do zapewnienia opartych na standardach, skomponowanych narzędzi kompilujących ML, które wspomagają wprowadzanie innowacji w wielu środowiskach i platformach sprzętowych w celu przyspieszenia przełomowych badań i nauk ścisłych” – Greg Lavender, starszy wiceprezes ds. technologii Intel, CTO i GM of Software & Advanced Technology Group
Meta
„W badaniach w Metal AI korzystaliśmy z XLA, podstawowej technologii projektu OpenXLA, do obsługi modeli PyTorch dla Cloud TPU i osiągnięcia znacznej poprawy wydajności w ważnych projektach. Wierzymy, że oprogramowanie open source przyspiesza wprowadzanie innowacji na świecie i cieszymy się, że możemy uczestniczyć w projekcie OpenXLA”. – Soumith Chintala, główny menedżer ds. zarządzania, PyTorch
NVIDIA
„Jako członek-założyciel projektu OpenXLA, firma NVIDIA ma nadzieję na dalszą współpracę ze społecznością OpenXLA nad rozwojem AI/ML. Cieszy się, że przy większym zaangażowaniu i wdrożeniu OpenXLA deweloperzy ML będą mieli dostęp do najnowocześniejszej infrastruktury AI” – Roger Bringmann, wiceprezes Compiler Software, NVIDIA.