OpenXLA
Nadchodzące wydarzenia
OpenXLA Dev Lab – listopad 2024 r.
XLA
Informacje
Instalacja/wykorzystanie
Dokumentacja
StableHLO
Informacje
Dokumentacja
Fragmenty
Informacje
Dokumentacja
PJRT
Informacje
Społeczność
Ogłoszenia/dyskusje
Discord
Spotkania
YouTube
Udział
Partnerzy branżowi
alibaba
„W firmie Alibaba klienci korzystający z OpenXLA korzystają z usługi Elastic GPU Service do trenowania i obsługi dużych modeli PyTorch. Zaobserwowaliśmy znaczącą poprawę wydajności w przypadku klientów korzystających z OpenXLA. W przypadku układów graficznych NVIDIA przyspieszono zwłaszcza o 72% w przypadku GPT2 i o 88% w przypadku Swin Transformer. Jesteśmy dumni z udziału w założycielu projektu OpenXLA. Współpracujemy ze społecznością open source nad opracowaniem zaawansowanego kompilatora ML, który zapewnia klientom Alibaba Cloud wysoką wydajność i wygodę korzystania z aplikacji”. – Yangqing Jia, wiceprezes ds. AI i analizy danych, Alibaba
Amazon Web Services
„Cieszymy się, że możemy być członkiem-założycielem projektu OpenXLA, który zdemokratyzuje dostęp do wydajnej, skalowalnej i rozszerzonej infrastruktury AI, a także umożliwi dalszą współpracę w ramach społeczności open source z myślą o zwiększaniu innowacyjności. W AWS nasi klienci skalują swoje aplikacje generatywnej AI w AWS Trainium i Inferentia, a nasz pakiet Neuron SDK korzysta z XLA do optymalizowania modeli ML pod kątem wysokiej wydajności i najwyższej w swojej klasie wydajności na waty. Dzięki solidnemu ekosystemowi OpenXLA deweloperzy mogą kontynuować wprowadzanie innowacji i zapewniać wysoką wydajność przy użyciu zrównoważonej infrastruktury systemów uczących się, a przy tym mieć pewność, że ich kod można wykorzystać na wybranym sprzęcie” – Nafea Bshara, wiceprezes i wybitny inżynier AWS
AMD
„Cieszymy się na myśl o przyszłości platformy OpenXLA w szerokiej gamie urządzeń AMD (procesory, GPU, AIE) i jesteśmy dumni z bycia częścią tej społeczności. Cenimy projekty z otwartym zarządzaniem, elastycznym i szerokim zakresem zastosowania, najnowocześniejszymi funkcjami i najwyższą wydajnością. Liczymy na dalszą współpracę na rzecz rozwijania ekosystemu open source dla programistów ML” – Alan Lee, wiceprezes ds. rozwoju oprogramowania, AMD
Dowolne
„Anyscale tworzy otwarte i skalowalne technologie, takie jak Ray, aby pomóc osobom zajmującym się sztuczną inteligencją szybciej opracowywać aplikacje i udostępniać je większej liczbie użytkowników. Niedawno nawiązaliśmy współpracę z projektem ALPA, aby wykorzystać OpenXLA do prezentowania na dużą skalę modeli o dużej wydajności na potrzeby dużych modeli językowych. Z przyjemnością uczestniczę w programie OpenXLA i cieszymy się, że to przedsięwzięcie typu open source umożliwia wydajne uruchamianie zadań AI na różnych platformach sprzętowych, co przekłada się na obniżenie bariery wejścia, obniżenie kosztów i szybsze postępy w dziedzinie AI”. – Philipp Moritz, dyrektor ds. technologii, Anyscale
Jabłko
Apple Inc. projektuje, produkuje i oferuje smartfony, komputery osobiste, tablety, urządzenia do noszenia i akcesoria oraz sprzedaje inne powiązane usługi.
Odmiana
„OpenXLA Project to ważny krok milowy na drodze do uproszczenia tworzenia oprogramowania ML. W pełni popieramy misję OpenXLA i nie możemy się doczekać wykorzystania stabilności i standaryzacji OpenXLA w planach rozwoju sprzętu i oprogramowania Arm® NeoverseTM” – Peter Greenhalgh, wiceprezes ds. technologii i stypendysta w firmie Arm®.
Mózgi
„W Cerebras opracowujemy akceleratory AI, które umożliwiają szybkie i łatwe trenowanie nawet największych modeli AI. Nasze systemy i oprogramowanie docierają do użytkowników tam, gdzie się znajdują – umożliwiają szybkie programowanie, skalowanie i iteracja z wykorzystaniem standardowych platform ML bez żadnych zmian. OpenXLA pomaga rozszerzyć zasięg naszych użytkowników i przyspieszyć czas oczekiwania na rozwiązanie, dostarczając mechanizm Cerebras Wafer-Scale Engine ze wspólnym interfejsem do platform ML wyższego poziomu. Z radością obserwujemy, że ekosystem OpenXLA jest dostępny w celu jeszcze szerszego angażowania społeczności, udostępniania treści i wykorzystywania ich na GitHubie” – Andy Hock, wiceprezes i dyrektor ds. produktu, Cerebras Systems
„Oprogramowanie typu open source pozwala każdemu przyczynić się do przełomowych odkryć w dziedzinie AI. W Google współpracujemy w ramach projektu OpenXLA, aby jeszcze bardziej zwiększyć nasze zaangażowanie w model open source i promować narzędzia AI, które podnoszą standard wydajności systemów uczących się, eliminują problemy ze zgodnością platform i sprzętu oraz zapewniają elastyczność elastyczności w celu dostosowania do konkretnych przypadków użycia używanych przez deweloperów. Cieszymy się, że możemy rozwijać te narzędzia razem ze społecznością OpenXLA, aby deweloperzy mogli wprowadzać postępy w wielu różnych warstwach stosu AI” – Jeff Dean, starszy pracownik naukowy i starszy wiceprezes, Google ds. badań i sztucznej inteligencji
Graficzny
„Nasz potok kompilatora IPU wykorzystuje XLA od momentu jego upublicznienia. Dzięki niezależności platformy i stabilności platformy XLA może być idealnym frontendem dla nowych, niezwiązanych z tym silikonów. Elastyczność XLA pozwoliła nam zaprezentować nowatorskie funkcje sprzętowe IPU i osiągnąć najwyższej klasy wydajność dzięki wielu platformom. Systemy obsługujące kod skompilowany przez XLA dziennie obsługują miliony zapytań. Cieszymy się z kierunku OpenXLA i mamy nadzieję, że będziemy nadal pomagać w tym projekcie. Wierzymy, że będzie to podstawowy element przyszłości sztucznej inteligencji i systemów uczących się” – David Norman, dyrektor ds. projektowania oprogramowania, Graphcore
Hugging Face
„Umożliwienie sprawnego uruchomienia dowolnego modelu na dowolnym sprzęcie to potężne wyzwanie techniczne, a także ważny cel naszej misji, jaką jest upowszechnienie dobrych systemów uczących się. W Hugging Face wdrożyliśmy XLA dla modeli generowania tekstu TensorFlow i osiągnęliśmy około 100-krotne przyspieszenie. Współpracujemy też ściśle z zespołami inżynierów w firmach Intel, AWS, Habana, Graphcore, AMD, Qualcomm i Google, tworząc mosty typu open source między platformami a każdym silikonem, aby dzięki naszej bibliotece Optimum oferować użytkownikom gotową obsługę. OpenXLA obiecuje ustandaryzowane elementy składowe, na których możemy zbudować bardzo potrzebną interoperacyjność. Nie możemy się doczekać, aż pójdzie z nimi w ramię!” – Morgan Funtowicz, dyrektor ds. optymalizacji systemów uczących się, Hugging Face
Intel
„W firmie Intel wierzymy w otwarty, zdemokratyzowany dostęp do AI. Procesory Intel, GPU, akceleratory Habana Gaudi i oprogramowanie oparte na AI oparte na jednym interfejsie API, w tym OpenVINO, pozwalają obsługiwać zadania ML w każdym miejscu – od superkomputerów eksaskalowych po duże wdrożenia w chmurze. Razem z innymi członkami OpenXLA dążymy do zapewnienia opartych na standardach, opartych na komponentach narzędzi kompilatora ML, które zwiększają innowacyjność w wielu środowiskach i platformach sprzętowych, aby przyspieszyć rewolucyjne badania i nauki” – Greg Lavender, starszy wiceprezes ds. technologii Intel, CTO i GM of Software & Advanced Technology Group
Meta
„W badaniach w Meta AI wykorzystujemy XLA, podstawową technologię projektu OpenXLA, aby umożliwić korzystanie z modeli PyTorch w Cloud TPU i osiągnąć znaczącą poprawę wydajności w ważnych projektach. Wierzymy, że oprogramowanie open source przyspiesza wprowadzanie innowacji na świecie, więc cieszymy się z przynależności do projektu OpenXLA”. – Soumith Chintala, główny menedżer PyTorch
NVIDIA
„Jako założycielka OpenXLA Project, firma NVIDIA z chęcią będzie współpracować ze społecznością OpenXLA nad rozwojem AI/ML i cieszy się tym, że przy większym zaangażowaniu i wdrożeniu OpenXLA deweloperzy korzystający z systemów uczących się zyskają możliwość korzystania z najnowocześniejszej infrastruktury AI” – Rogermann, wiceprezes ds. oprogramowania Compiler, NVIDIA.