یک اکوسیستم باز از مؤلفه‌های زیرساخت یادگیری ماشین (ML) عملکردی، قابل حمل و توسعه‌پذیر که توسعه ML را با یکپارچه‌سازی ابزارها بین فریم‌ورک‌های فرانت‌اند و پشتیبان‌های سخت‌افزار ساده می‌کند. ساخته شده توسط رهبران صنعت در مدل سازی، نرم افزار و سخت افزار هوش مصنوعی.
Dev Lab بعدی ما در 14 نوامبر در Sunnyvale، کالیفرنیا برگزار می شود.

XLA

XLA (Accelerated Linear Gebra) یک کامپایلر متن باز برای یادگیری ماشین است. کامپایلر XLA مدل‌هایی را از چارچوب‌های محبوبی مانند PyTorch، TensorFlow و JAX می‌گیرد و مدل‌ها را برای اجرای با کارایی بالا در پلتفرم‌های سخت‌افزاری مختلف از جمله GPU، CPU و شتاب‌دهنده‌های ML بهینه می‌کند.
XLA برای بسیاری از چارچوب های ML از پیش ساخته شده است. برای کسب اطلاعات در مورد نحوه استفاده از XLA در این موارد، به اسناد و صفحات چارچوب فردی مراجعه کنید.
مستندات XLA تعدادی از موضوعات اساسی و پیشرفته را پوشش می دهد، مانند نحوه ادغام یک پلاگین جدید PJRT، پیاده سازی یک باطن جدید XLA، و بهینه سازی زمان اجرای برنامه XLA.

StableHLO

StableHLO مجموعه ای از عملیات برای عملیات سطح بالا (HLO) در مدل های یادگیری ماشین (ML) است. اساساً، این یک لایه قابل حمل بین چارچوب‌های مختلف ML و کامپایلرهای ML است: چارچوب‌های ML که برنامه‌های StableHLO را تولید می‌کنند با کامپایلرهای ML که برنامه‌های StableHLO را مصرف می‌کنند سازگار هستند.
مستندات StableHLO تعدادی از موضوعات را پوشش می دهد، مانند مشخصات StableHLO OpSet، و نحوه صادرات نمودارهای StableHLO از چارچوب های رایج ML.

شاردی

Shardy یک سیستم پارتیشن بندی تانسور مبتنی بر MLIR برای همه گویش ها است. ساخته شده از همکاری هر دو تیم GSPMD و PartIR، بهترین های هر دو سیستم و تجربه مشترک تیم ها و کاربران را در خود جای داده است.
مستندات Shardy مفاهیم به اشتراک گذاری، نمای کلی گویش و شروع آموزش برای استفاده از Shardy از JAX یا ادغام Shardy در خط لوله MLIR سفارشی را پوشش می دهد.

PJRT

PJRT یک رابط مستقل از سخت افزار و چارچوب برای کامپایلرهای ML و زمان اجرا است. در حال حاضر با توزیع XLA گنجانده شده است. برای اطلاعات بیشتر در مورد نحوه استفاده و ادغام PJRT به XLA GitHub و مستندات مراجعه کنید.

انجمن

به لیست پستی openxla-discuss بپیوندید تا اخبار مربوط به نسخه ها، رویدادها و سایر به روز رسانی های اصلی را دریافت کنید. این همچنین کانال اصلی ما برای بحث‌های طراحی و توسعه است.
برای شرکت در چت در مورد موضوعات XLA و StableHLO به OpenXLA Discord بپیوندید.
جلسات هر ماه از طریق Google Meet در روز دوم یا سوم سه‌شنبه ساعت 9 صبح بعد از ظهر برگزار می‌شود. لطفاً برای تاریخ ها و موضوعات خاص به سند جلسه یا openxla-discuss مراجعه کنید.
از آخرین اخبار و اطلاعیه های انجمن OpenXLA به روز باشید. از آخرین اخبار و اطلاعیه های انجمن OpenXLA به روز باشید. از آخرین اخبار و اطلاعیه های انجمن OpenXLA به روز باشید.
ما از کمک های جامعه استقبال می کنیم. لطفاً برای اطلاعات بیشتر، دستورالعمل‌های مشارکتی ما را ببینید.

شرکای صنعت

پروژه OpenXLA با همکاری سازمان های سخت افزاری و نرم افزاری پیشرو ML توسعه یافته است.
لوگوی علی بابا

علی بابا

در Alibaba، OpenXLA توسط مشتریان خدمات Elastic GPU برای آموزش و ارائه مدل‌های بزرگ PyTorch استفاده می‌شود. ما شاهد بهبود عملکرد قابل توجهی برای مشتریانی که از OpenXLA استفاده می‌کنند، به ویژه افزایش سرعت 72 درصدی برای GPT2 و 88 درصدی برای Swin Transformer در پردازنده‌های گرافیکی NVIDIA، بوده‌ایم. ما مفتخریم که یکی از اعضای موسس پروژه OpenXLA هستیم و با جامعه منبع باز برای توسعه یک کامپایلر پیشرفته ML کار می کنیم که عملکرد و تجربه کاربری برتر را برای مشتریان Alibaba Cloud ارائه می دهد. - یانگ کینگ جیا، معاون، هوش مصنوعی و تجزیه و تحلیل داده ها، علی بابا

لوگوی خدمات وب آمازون

خدمات وب آمازون

ما هیجان‌زده هستیم که یکی از اعضای موسس پروژه OpenXLA هستیم که دسترسی به زیرساخت‌های هوش مصنوعی عملکردی، مقیاس‌پذیر و توسعه‌یافته و همچنین همکاری بیشتر در جامعه منبع باز برای هدایت نوآوری را دموکراتیک می‌کند. در AWS، مشتریان ما برنامه‌های هوش مصنوعی تولیدی خود را بر روی AWS Trainium و Inferentia مقیاس‌بندی می‌کنند و Neuron SDK ما برای بهینه‌سازی مدل‌های ML برای عملکرد بالا و بهترین عملکرد کلاس در هر وات، به XLA متکی است. با یک اکوسیستم OpenXLA قوی، توسعه‌دهندگان می‌توانند به نوآوری و ارائه عملکرد عالی با زیرساخت ML پایدار ادامه دهند و بدانند که کد آن‌ها برای استفاده در انتخاب سخت‌افزار قابل حمل است. - Nafea Bshara، معاون رئیس جمهور و مهندس برجسته، AWS

لوگوی AMD

AMD

ما در مورد مسیر آینده OpenXLA در خانواده گسترده دستگاه های AMD (CPU، GPU، AIE) هیجان زده هستیم و به اینکه بخشی از این جامعه هستیم، مفتخریم. ما برای پروژه‌هایی با حاکمیت باز، قابلیت کاربردی انعطاف‌پذیر و گسترده، ویژگی‌های پیشرفته و عملکرد عالی ارزش قائل هستیم و مشتاقانه منتظر ادامه همکاری برای گسترش اکوسیستم منبع باز برای توسعه‌دهندگان ML هستیم.» - آلن لی، معاون شرکت، توسعه نرم افزار، AMD

لوگوی هر مقیاس

هر مقیاس

"Anyscale فناوری های باز و مقیاس پذیر مانند Ray را توسعه می دهد تا به متخصصان هوش مصنوعی کمک کند برنامه های خود را سریعتر توسعه دهند و آنها را در دسترس کاربران بیشتری قرار دهند. اخیراً ما با پروژه ALPA همکاری کردیم تا از OpenXLA برای نشان دادن آموزش مدل های با کارایی بالا برای مدل های Large Language در مقیاس استفاده کنیم. ما خوشحالیم که در OpenXLA شرکت می‌کنیم و هیجان‌زده‌ام که چگونه این تلاش منبع باز باعث می‌شود بارهای کاری هوش مصنوعی را بر روی انواع گسترده‌تری از پلت‌فرم‌های سخت‌افزاری به طور کارآمد اجرا کنند، در نتیجه مانع ورود، کاهش هزینه‌ها و پیشرفت سریع‌تر حوزه هوش مصنوعی می‌شوند." - فیلیپ موریتز، CTO، Anyscale

لوگوی اپل

سیب

شرکت اپل گوشی‌های هوشمند، رایانه‌های شخصی، تبلت‌ها، پوشیدنی‌ها و لوازم جانبی را طراحی، تولید و به بازار عرضه می‌کند و انواع خدمات مرتبط را به فروش می‌رساند.

آرم بازو

بازو

پروژه OpenXLA نقطه عطف مهمی در مسیر ساده سازی توسعه نرم افزار ML است. ما به طور کامل از ماموریت OpenXLA حمایت می کنیم و مشتاقانه منتظر استفاده از ثبات و استانداردسازی OpenXLA در سراسر نقشه راه سخت افزاری و نرم افزاری Arm® Neoverse هستیم. - پیتر گرینهالگ، معاون فناوری و همکار، آرم.

لوگوی مغزها

مغزها

ما در سربراس شتاب‌دهنده‌های هوش مصنوعی می‌سازیم که برای آموزش سریع و آسان حتی بزرگ‌ترین مدل‌های هوش مصنوعی طراحی شده‌اند. سیستم‌ها و نرم‌افزارهای ما با کاربران در جایی که هستند ملاقات می‌کنند -- امکان توسعه سریع، مقیاس‌بندی و تکرار با استفاده از چارچوب‌های استاندارد ML بدون تغییر. OpenXLA با ارائه موتور مقیاس ویفر مغز با یک رابط مشترک برای چارچوب‌های سطح بالاتر ML به افزایش دسترسی کاربر و زمان تسریع به راه‌حل کمک می‌کند. ما بسیار هیجان زده هستیم که اکوسیستم OpenXLA را برای مشارکت، مشارکت و استفاده گسترده تر جامعه در GitHub در دسترس می بینیم." - اندی هاک، معاون و رئیس محصولات، Cerebras Systems

لوگوی گوگل

گوگل

نرم‌افزار متن‌باز به همه این فرصت را می‌دهد که به ایجاد پیشرفت‌هایی در هوش مصنوعی کمک کنند. در Google، ما در پروژه OpenXLA همکاری می کنیم تا تعهد خود را به منبع باز تقویت کنیم و ابزارهای هوش مصنوعی را تقویت کنیم که استانداردهای عملکرد ML را افزایش می دهد، ناسازگاری های بین چارچوب ها و سخت افزار را برطرف می کند و برای رسیدگی به موارد استفاده سفارشی توسعه دهندگان قابل پیکربندی مجدد است. ما برای توسعه این ابزارها با جامعه OpenXLA هیجان‌زده هستیم تا توسعه‌دهندگان بتوانند پیشرفت‌ها را در بسیاری از لایه‌های مختلف پشته هوش مصنوعی هدایت کنند. - جف دین، عضو ارشد و معاون، تحقیقات گوگل و هوش مصنوعی

لوگوی Graphcore

Graphcore

خط لوله کامپایلر IPU ما از زمانی که عمومی شد از XLA استفاده کرده است. به لطف استقلال و پایداری پلتفرم XLA، جلوه‌ای ایده‌آل برای بالا بردن سیلیکون جدید فراهم می‌کند. انعطاف‌پذیری XLA به ما این امکان را می‌دهد تا ویژگی‌های سخت‌افزاری جدید IPU خود را در معرض دید قرار دهیم و با فریم‌ورک‌های متعدد به بهترین عملکرد دست یابیم. میلیون ها پرس و جو در روز توسط سیستم های در حال اجرا کد کامپایل شده توسط XLA ارائه می شود. ما از هدایت OpenXLA هیجان زده هستیم و امیدواریم که به مشارکت در پروژه منبع باز ادامه دهیم. ما معتقدیم که این یک جزء اصلی در آینده AI/ML خواهد بود. - دیوید نورمن، مدیر طراحی نرم افزار، Graphcore

لوگوی صورت در آغوش کشیده

صورت در آغوش گرفته

آسان کردن اجرای کارآمد هر مدلی بر روی هر سخت افزاری یک چالش فنی عمیق و یک هدف مهم برای ماموریت ما برای دموکراتیک کردن یادگیری ماشین خوب است. در Hugging Face، XLA را برای مدل‌های تولید متن TensorFlow فعال کردیم و به سرعت 100 برابر رسیدیم. علاوه بر این، ما از نزدیک با تیم‌های مهندسی در Intel، AWS، Habana، Graphcore، AMD، Qualcomm و Google همکاری می‌کنیم و پل‌های منبع باز بین فریم‌ورک‌ها و هر سیلیکون ایجاد می‌کنیم تا از طریق کتابخانه Optimum خود، کارایی خارج از جعبه را به کاربران نهایی ارائه دهیم. OpenXLA بلوک‌های ساختمانی استاندارد شده‌ای را وعده می‌دهد که می‌توانیم بر اساس آن قابلیت‌های متقابل بسیار مورد نیاز را ایجاد کنیم، و نمی‌توانیم منتظر بمانیم تا آن را دنبال کنیم و مشارکت کنیم!» - مورگان فونتویچ، رئیس بخش بهینه سازی یادگیری ماشین، چهره در آغوش گرفته

لوگوی اینتل

اینتل

ما در اینتل به دسترسی آزاد و دموکراتیک شده به هوش مصنوعی اعتقاد داریم. پردازنده‌های اینتل، پردازنده‌های گرافیکی، شتاب‌دهنده‌های Habana Gaudi و نرم‌افزار هوش مصنوعی مجهز به oneAPI از جمله OpenVINO، بار کاری ML را در همه جا از ابررایانه‌های exascale گرفته تا استقرارهای ابری بزرگ هدایت می‌کنند. همراه با سایر اعضای OpenXLA، ما به دنبال پشتیبانی از ابزارهای کامپایلر ML مبتنی بر استاندارد و مؤلفه‌ای هستیم که نوآوری را در چارچوب‌ها و محیط‌های سخت‌افزاری متعدد برای سرعت بخشیدن به علم و تحقیق در حال تغییر جهان هدایت می‌کند. - Greg Lavender، SVP اینتل، CTO و GM گروه نرم افزار و فناوری پیشرفته

لوگوی متا

متا

در تحقیقات، در هوش مصنوعی متا، ما از XLA، یک فناوری اصلی پروژه OpenXLA، برای فعال کردن مدل‌های PyTorch برای Cloud TPU استفاده کرده‌ایم و توانستیم به بهبود عملکرد قابل توجهی در پروژه‌های مهم دست یابیم. ما معتقدیم که منبع باز سرعت نوآوری را در جهان تسریع می‌کند و از اینکه بخشی از پروژه OpenXLA باشیم هیجان‌زده هستیم. - Soumith Chintala، سرپرست اصلی، PyTorch

لوگوی انویدیا

NVIDIA

NVIDIA به‌عنوان یکی از اعضای موسس پروژه OpenXLA مشتاق همکاری در پیشرفت‌های AI/ML با جامعه OpenXLA است و معتقد است که با مشارکت گسترده‌تر و پذیرش OpenXLA، توسعه‌دهندگان ML با پیشرفته‌ترین پیشرفته‌ترین فناوری‌ها توانمند خواهند شد. زیرساخت هوش مصنوعی.” - راجر برینگمن، معاون، نرم افزار کامپایلر، NVIDIA.