XLA (Accelerated Linear Gebra) یک کامپایلر منبع باز برای یادگیری ماشین است. کامپایلر XLA مدلهایی را از چارچوبهای محبوبی مانند PyTorch، TensorFlow و JAX میگیرد و مدلها را برای اجرای با کارایی بالا در پلتفرمهای سختافزاری مختلف از جمله GPU، CPU و شتابدهندههای ML بهینه میکند. به عنوان مثال، در یک ارسال BERT MLPerf ، استفاده از XLA با 8 واحد گرافیکی Volta V100 در مقایسه با همان GPUهای بدون XLA به بهبود عملکرد ~ 7 برابری و ~ 5 برابر بهبود سایز دسته ای دست یافت.
به عنوان بخشی از پروژه OpenXLA، XLA با همکاری شرکت های سخت افزار و نرم افزار ML پیشرو در صنعت، از جمله Alibaba، Amazon Web Services، AMD، Apple، Arm، Google، Intel، Meta و NVIDIA ساخته شده است.
مزایای کلیدی
ساخت هر کجا : XLA در حال حاضر در چارچوب های ML پیشرو مانند TensorFlow، PyTorch و JAX ادغام شده است.
Run anywhere : از پشتیبانهای مختلف از جمله GPU، CPU و شتابدهندههای ML پشتیبانی میکند و شامل یک زیرساخت قابل اتصال برای افزودن پشتیبانی بیشتر است.
حداکثر کردن و مقیاس کردن عملکرد : عملکرد یک مدل را با پاس های بهینه سازی آزمایش شده تولید و پارتیشن بندی خودکار برای موازی سازی مدل بهینه می کند.
از بین بردن پیچیدگی : از قدرت MLIR استفاده می کند تا بهترین قابلیت ها را در یک زنجیره ابزار کامپایلر به ارمغان بیاورد، بنابراین شما مجبور نیستید طیف وسیعی از کامپایلرهای خاص دامنه را مدیریت کنید.
آماده آینده : به عنوان یک پروژه منبع باز، ساخته شده از طریق همکاری فروشندگان پیشرو سخت افزار و نرم افزار ML، XLA برای کار در صنعت ML طراحی شده است.
مستندات
برای کسب اطلاعات بیشتر در مورد XLA، پیوندهای سمت چپ را بررسی کنید. اگر یک توسعه دهنده جدید XLA هستید، ممکن است بخواهید با معماری XLA شروع کنید و سپس Contributing را بخوانید.