Otwarty ekosystem wydajnych, przenośnych i rozszerzających się komponentów infrastruktury systemów uczących się, które upraszczają tworzenie systemów uczących się przez defragmentację narzędzi między platformami frontendu i backendami sprzętu. Opracowane przez liderów branży w dziedzinie modelowania AI, oprogramowania i sprzętu.
Spotkanie społeczności 17.12.2024, 9:00 czasu PT
Nasze następne laboratorium odbędzie się 14 listopada w Sunnyvale w Kalifornii.

XLA

XLA (Accelerated Linear Algebra) to kompilator typu open source przeznaczony do systemów uczących się. Kompilator XLA wykorzystuje modele z popularnych platform, takich jak PyTorch, TensorFlow i JAX, i optymalizuje modele pod kątem wysokiej wydajności na różnych platformach sprzętowych, w tym GPU, procesorów i akceleratorach ML.
XLA jest wstępnie gotowa dla wielu platform ML. Informacje o tym, jak korzystać w takich przypadkach z XLA, znajdziesz w dokumentacji i na stronach poszczególnych platform.
Dokumentacja XLA obejmuje szereg zagadnień podstawowych i zaawansowanych, takich jak integracja nowej wtyczki PJRT, wdrożenie nowego backendu XLA i optymalizacja środowiska wykonawczego programu XLA.

StableHLO

StableHLO to operacja ustawiona na potrzeby operacji wysokiego poziomu w modelach systemów uczących się. Zasadniczo jest to warstwa przenośności między różnymi platformami ML i kompilatorami ML: platformy systemów uczących się, które tworzą programy StableHLO, są zgodne z kompilatorami ML, które używają programów StableHLO.
Dokumentacja StableHLO obejmuje szereg zagadnień, takich jak specyfikacja zestawu OpSet StableHLO i eksportowanie wykresów StableHLO za pomocą popularnych platform ML.

Fragmenty

Shardy to system partycjonowania tensorów oparty na MLIR dla wszystkich dialektów. Jest ona wynikiem współpracy zespołów GSPMD i PartIR, łączy w sobie to, co najlepsze w obu systemach, oraz wspólne doświadczenia obu zespołów i użytkowników.
Dokumentacja Shardy zawiera omówienie pojęć związanych z dzieleniem, przegląd dialektów oraz samouczki dotyczące korzystania z Shardy w JAX lub integrowania Shardy z niestandardowym przepływem danych MLIR.

PJRT

PJRT to niezależny od sprzętu i platformy interfejs dla kompilatorów i środowisk wykonawczych systemów uczących się. Jest obecnie zawarta w dystrybucji XLA. Więcej informacji o korzystaniu z narzędzia PJRT i jego integracji znajdziesz w dokumentacji XLA na GitHubie i dokumentacji.

Społeczność

Dołącz do listy adresowej Openxla-dyskusja, aby otrzymywać wiadomości o premierach i wydarzeniach oraz inne ważne informacje. Jest to również nasz główny kanał do dyskusji na temat projektowania i programowania.
Dołącz do platformy OpenXLA Discord, aby brać udział w czatach na tematy XLA i StableHLO.
Spotkania odbywają się w Google Meet w 2 lub 3 wtorek o godzinie 9:00 czasu PT. Konkretne daty i tematy znajdziesz w dokumencie ze spotkania lub w dyskusji na platformie openxla.
Bądź na bieżąco z najnowszymi wiadomościami i ogłoszeniami społeczności OpenXLA.
Zachęcamy do publikowania treści przez społeczność. Więcej informacji znajdziesz w wytycznych dotyczących udostępniania treści.

Partnerzy branżowi

Projekt OpenXLA jest opracowywany we współpracy przez czołowe organizacje zajmujące się sprzętem i oprogramowaniem ML.
Logo Alibaba

alibaba

„W firmie Alibaba klienci korzystający z OpenXLA korzystają z usługi Elastic GPU Service do trenowania i obsługi dużych modeli PyTorch. Zaobserwowaliśmy znaczącą poprawę wydajności w przypadku klientów korzystających z OpenXLA. W przypadku układów graficznych NVIDIA przyspieszono zwłaszcza o 72% w przypadku GPT2 i o 88% w przypadku Swin Transformer. Jesteśmy dumni z udziału w założycielu projektu OpenXLA. Współpracujemy ze społecznością open source nad opracowaniem zaawansowanego kompilatora ML, który zapewnia klientom Alibaba Cloud wysoką wydajność i wygodę korzystania z aplikacji”. – Yangqing Jia, wiceprezes ds. AI i analizy danych, Alibaba

Logo Amazon Web Services

Amazon Web Services

„Cieszymy się, że możemy być członkiem-założycielem projektu OpenXLA, który zdemokratyzuje dostęp do wydajnej, skalowalnej i rozszerzonej infrastruktury AI, a także umożliwi dalszą współpracę w ramach społeczności open source z myślą o zwiększaniu innowacyjności. W AWS nasi klienci skalują swoje aplikacje generatywnej AI w AWS Trainium i Inferentia, a nasz pakiet Neuron SDK korzysta z XLA do optymalizowania modeli ML pod kątem wysokiej wydajności i najwyższej w swojej klasie wydajności na waty. Dzięki solidnemu ekosystemowi OpenXLA deweloperzy mogą kontynuować wprowadzanie innowacji i zapewniać wysoką wydajność przy użyciu zrównoważonej infrastruktury systemów uczących się, a przy tym mieć pewność, że ich kod można wykorzystać na wybranym sprzęcie” – Nafea Bshara, wiceprezes i wybitny inżynier AWS

Logo AMD

AMD

„Cieszymy się na myśl o przyszłości platformy OpenXLA w szerokiej gamie urządzeń AMD (procesory, GPU, AIE) i jesteśmy dumni z bycia częścią tej społeczności. Cenimy projekty z otwartym zarządzaniem, elastycznym i szerokim zakresem zastosowania, najnowocześniejszymi funkcjami i najwyższą wydajnością. Liczymy na dalszą współpracę na rzecz rozwijania ekosystemu open source dla programistów ML” – Alan Lee, wiceprezes ds. rozwoju oprogramowania, AMD

Logo Anyscale

Dowolne

„Anyscale tworzy otwarte i skalowalne technologie, takie jak Ray, aby pomóc osobom zajmującym się sztuczną inteligencją szybciej opracowywać aplikacje i udostępniać je większej liczbie użytkowników. Niedawno nawiązaliśmy współpracę z projektem ALPA, aby wykorzystać OpenXLA do prezentowania na dużą skalę modeli o dużej wydajności na potrzeby dużych modeli językowych. Z przyjemnością uczestniczę w programie OpenXLA i cieszymy się, że to przedsięwzięcie typu open source umożliwia wydajne uruchamianie zadań AI na różnych platformach sprzętowych, co przekłada się na obniżenie bariery wejścia, obniżenie kosztów i szybsze postępy w dziedzinie AI”. – Philipp Moritz, dyrektor ds. technologii, Anyscale

Logo Apple

Jabłko

Apple Inc. projektuje, produkuje i oferuje smartfony, komputery osobiste, tablety, urządzenia do noszenia i akcesoria oraz sprzedaje inne powiązane usługi.

Logo Arm

Odmiana

„OpenXLA Project to ważny krok milowy na drodze do uproszczenia tworzenia oprogramowania ML. W pełni popieramy misję OpenXLA i nie możemy się doczekać wykorzystania stabilności i standaryzacji OpenXLA w planach rozwoju sprzętu i oprogramowania Arm® NeoverseTM” – Peter Greenhalgh, wiceprezes ds. technologii i stypendysta w firmie Arm®.

Logo Cerebras

Mózgi

„W Cerebras opracowujemy akceleratory AI, które umożliwiają szybkie i łatwe trenowanie nawet największych modeli AI. Nasze systemy i oprogramowanie docierają do użytkowników tam, gdzie się znajdują – umożliwiają szybkie programowanie, skalowanie i iteracja z wykorzystaniem standardowych platform ML bez żadnych zmian. OpenXLA pomaga rozszerzyć zasięg naszych użytkowników i przyspieszyć czas oczekiwania na rozwiązanie, dostarczając mechanizm Cerebras Wafer-Scale Engine ze wspólnym interfejsem do platform ML wyższego poziomu. Z radością obserwujemy, że ekosystem OpenXLA jest dostępny w celu jeszcze szerszego angażowania społeczności, udostępniania treści i wykorzystywania ich na GitHubie” – Andy Hock, wiceprezes i dyrektor ds. produktu, Cerebras Systems

Logo Google

Google

„Oprogramowanie typu open source pozwala każdemu przyczynić się do przełomowych odkryć w dziedzinie AI. W Google współpracujemy w ramach projektu OpenXLA, aby jeszcze bardziej zwiększyć nasze zaangażowanie w model open source i promować narzędzia AI, które podnoszą standard wydajności systemów uczących się, eliminują problemy ze zgodnością platform i sprzętu oraz zapewniają elastyczność elastyczności w celu dostosowania do konkretnych przypadków użycia używanych przez deweloperów. Cieszymy się, że możemy rozwijać te narzędzia razem ze społecznością OpenXLA, aby deweloperzy mogli wprowadzać postępy w wielu różnych warstwach stosu AI” – Jeff Dean, starszy pracownik naukowy i starszy wiceprezes, Google ds. badań i sztucznej inteligencji

Logo Graphcore

Graficzny

„Nasz potok kompilatora IPU wykorzystuje XLA od momentu jego upublicznienia. Dzięki niezależności platformy i stabilności platformy XLA może być idealnym frontendem dla nowych, niezwiązanych z tym silikonów. Elastyczność XLA pozwoliła nam zaprezentować nowatorskie funkcje sprzętowe IPU i osiągnąć najwyższej klasy wydajność dzięki wielu platformom. Systemy obsługujące kod skompilowany przez XLA dziennie obsługują miliony zapytań. Cieszymy się z kierunku OpenXLA i mamy nadzieję, że będziemy nadal pomagać w tym projekcie. Wierzymy, że będzie to podstawowy element przyszłości sztucznej inteligencji i systemów uczących się” – David Norman, dyrektor ds. projektowania oprogramowania, Graphcore

Logo Hugging Face

Hugging Face

„Umożliwienie sprawnego uruchomienia dowolnego modelu na dowolnym sprzęcie to potężne wyzwanie techniczne, a także ważny cel naszej misji, jaką jest upowszechnienie dobrych systemów uczących się. W Hugging Face wdrożyliśmy XLA dla modeli generowania tekstu TensorFlow i osiągnęliśmy około 100-krotne przyspieszenie. Współpracujemy też ściśle z zespołami inżynierów w firmach Intel, AWS, Habana, Graphcore, AMD, Qualcomm i Google, tworząc mosty typu open source między platformami a każdym silikonem, aby dzięki naszej bibliotece Optimum oferować użytkownikom gotową obsługę. OpenXLA obiecuje ustandaryzowane elementy składowe, na których możemy zbudować bardzo potrzebną interoperacyjność. Nie możemy się doczekać, aż pójdzie z nimi w ramię!” – Morgan Funtowicz, dyrektor ds. optymalizacji systemów uczących się, Hugging Face

Logo Intel

Intel

„W firmie Intel wierzymy w otwarty, zdemokratyzowany dostęp do AI. Procesory Intel, GPU, akceleratory Habana Gaudi i oprogramowanie oparte na AI oparte na jednym interfejsie API, w tym OpenVINO, pozwalają obsługiwać zadania ML w każdym miejscu – od superkomputerów eksaskalowych po duże wdrożenia w chmurze. Razem z innymi członkami OpenXLA dążymy do zapewnienia opartych na standardach, opartych na komponentach narzędzi kompilatora ML, które zwiększają innowacyjność w wielu środowiskach i platformach sprzętowych, aby przyspieszyć rewolucyjne badania i nauki” – Greg Lavender, starszy wiceprezes ds. technologii Intel, CTO i GM of Software & Advanced Technology Group

Logo Meta

Meta

„W badaniach w Meta AI wykorzystujemy XLA, podstawową technologię projektu OpenXLA, aby umożliwić korzystanie z modeli PyTorch w Cloud TPU i osiągnąć znaczącą poprawę wydajności w ważnych projektach. Wierzymy, że oprogramowanie open source przyspiesza wprowadzanie innowacji na świecie, więc cieszymy się z przynależności do projektu OpenXLA”. – Soumith Chintala, główny menedżer PyTorch

Logo NVIDIA

NVIDIA

„Jako założycielka OpenXLA Project, firma NVIDIA z chęcią będzie współpracować ze społecznością OpenXLA nad rozwojem AI/ML i cieszy się tym, że przy większym zaangażowaniu i wdrożeniu OpenXLA deweloperzy korzystający z systemów uczących się zyskają możliwość korzystania z najnowocześniejszej infrastruktury AI” – Rogermann, wiceprezes ds. oprogramowania Compiler, NVIDIA.

Kontakt

Jeśli masz pytania, skontaktuj się z opiekunami na openxla.org