XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพนซอร์สสำหรับแมชชีนเลิร์นนิง คอมไพเลอร์ XLA นำโมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และเพิ่มประสิทธิภาพโมเดลสำหรับการดำเนินการประสิทธิภาพสูงในแพลตฟอร์มฮาร์ดแวร์ต่างๆ เช่น GPU, CPU และเครื่องมือเร่ง ML ตัวอย่างเช่น ในการส่ง BERT MLPerf การใช้ XLA ที่มี GPU Volta V100 จำนวน 8 ชิ้นได้รับประสิทธิภาพที่ดีขึ้นประมาณ 7 เท่าและได้รับการปรับปรุงเป็นกลุ่มถึง 5 เท่าเมื่อเทียบกับ GPU เดียวกันที่ไม่มี XLA
XLA เป็นส่วนหนึ่งของโปรเจ็กต์ OpenXLA ที่พัฒนาขึ้นโดยความร่วมมือกันโดยบริษัทด้านฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำของอุตสาหกรรม อาทิ Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta และ NVIDIA
ประโยชน์สำคัญ
สร้างได้ทุกที่: XLA ผสานรวมเข้ากับเฟรมเวิร์ก ML ชั้นนำแล้ว เช่น TensorFlow, PyTorch และ JAX
ทำงานได้ทุกที่: รองรับแบ็กเอนด์ต่างๆ เช่น GPU, CPU และตัวเร่ง ML และยังมีโครงสร้างพื้นฐานที่เสียบได้เพื่อเพิ่มการสนับสนุน
เพิ่มประสิทธิภาพสูงสุดและปรับขนาด: เพิ่มประสิทธิภาพของโมเดลด้วยบัตรผ่านการเพิ่มประสิทธิภาพที่ทดสอบการใช้งานจริงและการแบ่งพาร์ติชันอัตโนมัติสำหรับการทำงานพร้อมกันของโมเดล
ขจัดความซับซ้อน: เครื่องมือนี้ใช้ประโยชน์จากศักยภาพของ MLIR เพื่อนำความสามารถที่ดีที่สุดมาไว้ในชุดเครื่องมือคอมไพเลอร์เดียว คุณจึงไม่ต้องจัดการคอมไพเลอร์เฉพาะโดเมนที่หลากหลาย
พร้อมสำหรับอนาคต: ในฐานะโปรเจ็กต์โอเพนซอร์สที่สร้างขึ้นผ่านความร่วมมือของผู้จำหน่ายฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำ XLA ได้รับการออกแบบให้ทำงานล้ำสมัยในอุตสาหกรรม ML
เอกสารประกอบ
ดูข้อมูลเพิ่มเติมเกี่ยวกับ XLA ได้ที่ลิงก์ทางด้านซ้าย หากคุณเป็นนักพัฒนาซอฟต์แวร์ XLA รายใหม่ คุณอาจต้องเริ่มต้นด้วยสถาปัตยกรรม XLA แล้วอ่านรีวิวโค้ด