ระบบนิเวศแบบเปิดที่มีคอมโพเนนต์โครงสร้างพื้นฐานแมชชีนเลิร์นนิง (ML) ที่มีประสิทธิภาพ พกพาได้ และยืดหยุ่นได้ ซึ่งช่วยลดความซับซ้อนของการพัฒนา ML ด้วยการจัดเรียงเครื่องมือระหว่างเฟรมเวิร์กฟรอนท์เอนด์และแบ็กเอนด์ฮาร์ดแวร์ สร้างโดยผู้นำในอุตสาหกรรมด้านโมเดล AI, ซอฟต์แวร์ และฮาร์ดแวร์
การประชุมชุมชน 17/12/2024 เวลา 09:00 น. (PT)
สไลด์และการบันทึกจาก Fall Dev Lab พร้อมให้ใช้งานแล้ว

ขนาด XL

XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพนซอร์สสำหรับแมชชีนเลิร์นนิง คอมไพเลอร์ XLA นำโมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และเพิ่มประสิทธิภาพโมเดลเพื่อการดำเนินการประสิทธิภาพสูงในแพลตฟอร์มฮาร์ดแวร์ต่างๆ เช่น GPU, CPU และเครื่องมือเร่ง ML
XLA สร้างไว้ล่วงหน้าสำหรับเฟรมเวิร์ก ML จำนวนมาก โปรดดูข้อมูลเกี่ยวกับวิธีใช้ XLA ในกรณีเหล่านี้ที่เอกสารประกอบและหน้าเฟรมเวิร์กแต่ละหน้า
เอกสาร XLA ครอบคลุมหัวข้อพื้นฐานและขั้นสูงมากมาย เช่น วิธีผสานรวมปลั๊กอิน PJRT ใหม่ การใช้แบ็กเอนด์ XLA ใหม่ และเพิ่มประสิทธิภาพรันไทม์ของโปรแกรม XLA

StableHLO

StableHLO คือชุดการดำเนินการสำหรับการดำเนินการระดับสูง (HLO) ในโมเดลแมชชีนเลิร์นนิง (ML) โดยพื้นฐานแล้ว เป็นเลเยอร์ความสามารถในการถ่ายโอนได้ระหว่างเฟรมเวิร์ก ML กับคอมไพเลอร์ ML แต่ละเฟรมเวิร์ก ML ที่สร้างโปรแกรม StableHLO เข้ากันได้กับคอมไพเลอร์ ML ที่ใช้โปรแกรม StableHLO
เอกสารของ StableHLO ครอบคลุมหัวข้อต่างๆ เช่น ข้อกำหนดของ StableHLO OpSet และวิธีส่งออกกราฟ StableHLO จากเฟรมเวิร์ก ML ทั่วไป

Shardy

Shardy เป็นระบบการแบ่งกลุ่มเทนเซอร์ที่ใช้ MLIR สำหรับทุกภาษา เครื่องมือนี้สร้างขึ้นจากความร่วมมือของทั้งทีม GSPMD และ PartIR โดยรวมเอาสิ่งที่ดีที่สุดของทั้ง 2 ระบบ และประสบการณ์ที่ทีมและผู้ใช้ได้แชร์ไว้
เอกสารประกอบของ Shardy ครอบคลุมแนวคิดการชาร์ดดิ้ง ภาพรวมภาษา และการเริ่มต้นใช้งานบทแนะนำสำหรับการใช้ Shardy จาก JAX หรือการผสานรวม Shardy เข้ากับไปป์ไลน์ MLIR ที่กำหนดเอง

PJRT

PJRT เป็นอินเทอร์เฟซที่เป็นอิสระจากฮาร์ดแวร์และเฟรมเวิร์กสำหรับคอมไพเลอร์และรันไทม์ของ ML ซึ่งปัจจุบันรวมอยู่ในการจัดจำหน่าย XLA ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีใช้และผสานรวม PJRT ได้ที่ XLA GitHub และเอกสารประกอบ

ชุมชน

เข้าร่วมรายชื่ออีเมล openxla-discuss เพื่อรับข่าวเกี่ยวกับผลงาน กิจกรรม และการอัปเดตสำคัญอื่นๆ และยังเป็นช่องทางหลักสำหรับการพูดคุยเรื่องการออกแบบและการพัฒนาด้วย
เข้าร่วม OpenXLA Discord เพื่อร่วมแชทเกี่ยวกับหัวข้อ XLA และ StableHLO
โดยการประชุมจะจัดขึ้นผ่าน Google Meet ทุกเดือนในวันอังคารที่ 2 หรือ 3 เวลา 9:00 น. (PT) โปรดดูเอกสารการประชุมหรือ openxla-discuss สำหรับวันที่และหัวข้อที่ต้องการ
ติดตามข่าวสารและประกาศล่าสุดจากชุมชน OpenXLA
เรายินดีรับการมีส่วนร่วมจากชุมชน โปรดดูข้อมูลเพิ่มเติมในหลักเกณฑ์สำหรับการมีส่วนร่วม

พาร์ทเนอร์อุตสาหกรรม

โปรเจ็กต์ OpenXLA พัฒนาขึ้นร่วมกันโดยองค์กรชั้นนำด้านฮาร์ดแวร์และซอฟต์แวร์ ML
โลโก้ Alibaba

Alibaba

"Alibaba นั้น OpenXLA ได้ใช้ประโยชน์จากลูกค้า Elastic GPU Service ในการฝึกและให้บริการ PyTorch โมเดลขนาดใหญ่ เราเห็นประสิทธิภาพที่ดีขึ้นอย่างมากสำหรับลูกค้าที่ใช้ OpenXLA โดยเฉพาะอย่างยิ่งความเร็ว 72% สำหรับ GPT2 และ 88% สำหรับ Swin Transformer บน GPU NVIDIA เราภูมิใจที่ได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA และทำงานร่วมกับชุมชนโอเพนซอร์สเพื่อพัฒนาคอมไพเลอร์ ML ขั้นสูงที่มอบประสิทธิภาพและประสบการณ์ของผู้ใช้ที่เหนือกว่าสำหรับลูกค้า Alibaba Cloud" - Yangqing Jia รองประธานฝ่าย AI และการวิเคราะห์ข้อมูลของ Alibaba

โลโก้ Amazon Web Services

Amazon Web Services

"เราตื่นเต้นที่จะได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA ที่จะทำให้ทุกคนสามารถเข้าถึงโครงสร้างพื้นฐานของ AI ที่มีประสิทธิภาพ รองรับการปรับขนาด และมีความยืดหยุ่น รวมถึงสามารถทำงานร่วมกันเพิ่มเติมภายในชุมชนโอเพนซอร์สเพื่อผลักดันนวัตกรรม ที่ AWS ลูกค้าของเราปรับขนาดแอปพลิเคชัน Generative AI บน AWS Trainium และ Inferentia ขณะที่ Neuron SDK ของเราใช้ XLA ในการเพิ่มประสิทธิภาพโมเดล ML ให้มีประสิทธิภาพสูงสุดและประสิทธิภาพต่อวัตต์ที่ดีที่สุดในระดับ ด้วยระบบนิเวศ OpenXLA ที่แข็งแกร่ง นักพัฒนาซอฟต์แวร์จึงสามารถสร้างสรรค์สิ่งใหม่ๆ อย่างต่อเนื่องและมอบประสิทธิภาพที่ยอดเยี่ยมด้วยโครงสร้างพื้นฐาน ML ที่ยั่งยืน และมั่นใจได้ว่าโค้ดของตนจะนำไปใช้ได้กับฮาร์ดแวร์ที่ตนเลือกใช้" - Nafea Bshara รองประธานและวิศวกรโดดเด่นของ AWS

โลโก้ AMD

AMD

“เราตื่นเต้นกับทิศทางในอนาคตของ OpenXLA ในอุปกรณ์ AMD (CPU, GPU, AIE) อันกว้างขวาง และภูมิใจที่ได้เป็นส่วนหนึ่งของชุมชนนี้ เราให้ความสำคัญกับโปรเจ็กต์ต่างๆ ด้วยการกำกับดูแลอย่างเปิดกว้าง การนำไปใช้ที่ยืดหยุ่นและยืดหยุ่น ฟีเจอร์ที่ล้ำสมัยและประสิทธิภาพชั้นยอด และรอคอยที่จะได้ทำงานร่วมกันอย่างต่อเนื่องเพื่อขยายระบบนิเวศแบบโอเพนซอร์สสำหรับนักพัฒนาซอฟต์แวร์ ML" - Alan Lee รองประธานบริษัทฝ่ายพัฒนาซอฟต์แวร์ของ AMD

โลโก้ Anyscale

ขนาดใดก็ได้

" Anyscale จะพัฒนาเทคโนโลยีแบบเปิดและรองรับการปรับขนาด เช่น Ray เพื่อช่วยให้ผู้ปฏิบัติงานด้าน AI พัฒนาแอปพลิเคชันได้เร็วขึ้นและพร้อมให้บริการแก่ผู้ใช้จำนวนมากขึ้น เมื่อเร็วๆ นี้เราได้ร่วมมือกับโครงการ ALPA เพื่อใช้ OpenXLA แสดงการฝึกโมเดลประสิทธิภาพสูงสำหรับโมเดลภาษาขนาดใหญ่ในวงกว้าง เรายินดีที่ได้เข้าร่วมโปรแกรม OpenXLA และรู้สึกตื่นเต้นที่ความพยายามโอเพนซอร์สนี้ช่วยให้ใช้งานระบบ AI ในแพลตฟอร์มฮาร์ดแวร์ที่หลากหลายได้อย่างมีประสิทธิภาพ ช่วยลดอุปสรรคในการเข้าใช้งาน ลดต้นทุน และทำให้วงการ AI ก้าวหน้าขึ้นอย่างรวดเร็ว" - Philipp Moritz, CTO ของ Anyscale

โลโก้ Apple

แอปเปิ้ล

บริษัทออกแบบ ผลิต และทำการตลาดสมาร์ทโฟน คอมพิวเตอร์ส่วนบุคคล แท็บเล็ต อุปกรณ์ที่สวมใส่ได้ และอุปกรณ์เสริม รวมถึงจำหน่ายบริการต่างๆ ที่เกี่ยวข้อง

โลโก้ Arm

กลุ่ม

"โครงการ OpenXLA ถือเป็นก้าวสำคัญในเส้นทางสู่การทำให้การพัฒนาซอฟต์แวร์ ML เป็นเรื่องง่าย เราสนับสนุนพันธกิจของ OpenXLA อย่างเต็มที่และหวังว่าจะได้ใช้ประโยชน์จากความเสถียรและการกำหนดมาตรฐานของ OpenXLA ในแผนกลยุทธ์ด้านฮาร์ดแวร์และซอฟต์แวร์ของ Arm® NeoverseTM" - Peter Greenhalgh รองประธานฝ่ายเทคโนโลยีและสมาชิกของ Arm

โลโก้ Cerebras

เซเรบรา

"ที่ Cerebras เราสร้าง Accelerator สำหรับ AI ที่ออกแบบมาเพื่อช่วยให้การฝึกโมเดล AI ที่ใหญ่ที่สุดทำได้ง่ายและรวดเร็ว ระบบและซอฟต์แวร์ของเราตอบสนองผู้ใช้ได้ไม่ว่าจะอยู่ที่ไหน โดยเปิดให้มีการพัฒนา ปรับขนาด และทำซ้ำได้อย่างรวดเร็วโดยใช้เฟรมเวิร์ก ML มาตรฐานโดยไม่มีการเปลี่ยนแปลง OpenXLA ช่วยขยายการเข้าถึงของผู้ใช้และเร่งเวลาในการแก้ปัญหาด้วยการให้บริการ Cerebras Wafer-Scale Engine ที่มีอินเทอร์เฟซทั่วไปสำหรับเฟรมเวิร์ก ML ระดับสูง เราตื่นเต้นมากที่ได้เห็นระบบนิเวศของ OpenXLA เปิดให้การมีส่วนร่วม การสนับสนุน และการใช้งานของชุมชนในวงกว้างขึ้นบน GitHub" - Andy Hock รองประธานและหัวหน้าฝ่ายผลิตภัณฑ์ของ Cerebras Systems

โลโก้ Google

Google

"ซอฟต์แวร์โอเพนซอร์สเปิดโอกาสให้ทุกคนช่วยสร้างความก้าวหน้าด้าน AI Google กำลังทำงานร่วมกันในโครงการ OpenXLA เพื่อสานต่อความมุ่งมั่นของเราที่จะโอเพนซอร์สและส่งเสริมการใช้งานเครื่องมือ AI ที่ยกระดับมาตรฐานประสิทธิภาพ ML, แก้ไขปัญหาความไม่เข้ากันระหว่างเฟรมเวิร์กกับฮาร์ดแวร์ และสามารถกำหนดค่าใหม่เพื่อจัดการกับ Use Case ที่นักพัฒนาแอปปรับให้เหมาะกับผู้ใช้ เราตื่นเต้นมากที่จะได้พัฒนาเครื่องมือเหล่านี้ร่วมกับชุมชน OpenXLA เพื่อให้นักพัฒนาซอฟต์แวร์สามารถขับเคลื่อนความก้าวหน้าของชุด AI ในเลเยอร์ต่างๆ มากมาย" - Jeff Dean สมาชิกอาวุโสและรองประธานอาวุโสฝ่ายวิจัยและ AI ของ Google

โลโก้ Graphcore

กราฟคอร์

"ไปป์ไลน์คอมไพเลอร์ IPU ของเราใช้ XLA ตั้งแต่เผยแพร่สู่สาธารณะ ด้วยความเป็นอิสระและความเสถียรของแพลตฟอร์ม XLA ทำให้แพลตฟอร์มนี้เป็นฟรอนท์เอนด์ที่สมบูรณ์แบบสำหรับการนำซิลิคอนใหม่ๆ มาใช้ ความยืดหยุ่นของ XLA ช่วยให้เราสามารถแสดงคุณลักษณะฮาร์ดแวร์ใหม่ๆ ของ IPU และบรรลุประสิทธิภาพที่ล้ำสมัยด้วยเฟรมเวิร์กหลายระบบ คำค้นหาหลายล้านรายการต่อวันถูกให้บริการโดยระบบที่ใช้โค้ดซึ่งคอมไพล์โดย XLA เรารู้สึกตื่นเต้นกับทิศทางของ OpenXLA และหวังว่าจะได้ช่วยดำเนินโครงการโอเพนซอร์สนี้ต่อไป เราเชื่อว่าผลิตภัณฑ์นี้จะเข้ามาเป็นองค์ประกอบหลักในอนาคตของ AI/ML" - David Norman ผู้อำนวยการฝ่ายการออกแบบซอฟต์แวร์ของ Graphcore

โลโก้หน้ากอด

หน้ากอด

"การทำให้โมเดลได้ง่ายๆ อย่างมีประสิทธิภาพด้วยฮาร์ดแวร์ทุกชนิดเป็นความท้าทายทางเทคนิคที่ลึก และเป็นเป้าหมายสำคัญสำหรับภารกิจของเราคือการทำให้แมชชีนเลิร์นนิงที่ดีเป็นประชาธิปไตย ที่ Hugging Face เราได้เปิดใช้ XLA สำหรับโมเดลการสร้างข้อความของ TensorFlow และเพิ่มความเร็วได้ประมาณ 100 เท่า นอกจากนี้ เรายังทำงานร่วมกับทีมวิศวกรอย่างใกล้ชิดที่ Intel, AWS, Habana, Graphcore, AMD, Qualcomm และ Google เพื่อสร้างบริดจ์โอเพนซอร์สระหว่างเฟรมเวิร์กและซิลิคอนแต่ละรายการ เพื่อนำเสนอประสิทธิภาพที่เหนือกว่าให้แก่ผู้ใช้ผ่านไลบรารี Optimum ของเรา OpenXLA ได้รับประกันถึงองค์ประกอบที่ใช้สร้างสรรค์มาตรฐานซึ่งเราสามารถสร้างความสามารถในการทำงานร่วมกันที่จำเป็น และเราก็แทบอดใจรอไม่ไหวที่จะติดตามและมีส่วนร่วม!" - Morgan Funtowicz หัวหน้าฝ่ายเพิ่มประสิทธิภาพแมชชีนเลิร์นนิงแห่ง Hugging Face

โลโก้ Intel

Intel

"Intel เชื่อมั่นในเรื่องการเข้าถึง AI ที่เปิดกว้างและเป็นประชาธิปไตย CPU, GPU, ของ Intel, Habana Gaudi Accelerator และซอฟต์แวร์ AI ที่ทำงานด้วยระบบ API เพียงแห่งเดียว ซึ่งรวมถึง OpenVINO ที่ขับเคลื่อนภาระงาน ML ได้ทุกที่ตั้งแต่ซูเปอร์คอมพิวเตอร์ Exascale ไปจนถึงการติดตั้งใช้งานระบบคลาวด์หลักๆ เราร่วมมือกับสมาชิก OpenXLA คนอื่นๆ เพื่อพยายามสนับสนุนเครื่องมือคอมไพเลอร์ ML ที่ประกอบขึ้นเป็นองค์ประกอบตามมาตรฐานที่ผลักดันให้เกิดนวัตกรรมในสภาพแวดล้อมเฟรมเวิร์กและฮาร์ดแวร์ที่หลากหลายเพื่อเร่งการพัฒนาวิทยาศาสตร์และการวิจัยที่เปลี่ยนแปลงโลก " - Greg Lavender รองประธานอาวุโสของ Intel, CTO และ GM ของ Software & Advanced Technology Group

โลโก้เมตา

Meta

"ในการวิจัยของ Meta AI เราใช้ XLA ซึ่งเป็นเทคโนโลยีหลักของโปรเจ็กต์ OpenXLA เพื่อเปิดใช้โมเดล PyTorch สำหรับ Cloud TPU และปรับปรุงประสิทธิภาพได้อย่างมากในโปรเจ็กต์สำคัญๆ เราเชื่อว่าโอเพนซอร์สจะช่วยให้นวัตกรรมในโลกเปลี่ยนแปลงไปอย่างรวดเร็ว และตื่นเต้นที่ได้เป็นส่วนหนึ่งของโครงการ OpenXLA" - Soumith Chintala หัวหน้าผู้ดูแลของ PyTorch

โลโก้ NVIDIA

NVIDIA

"ในฐานะสมาชิกผู้ก่อตั้งโครงการ OpenXLA Project NVIDIA ตั้งตารอที่จะได้ร่วมงานกันเพื่อความก้าวหน้าด้าน AI/ML กับชุมชน OpenXLA และมั่นใจมากว่านักพัฒนาซอฟต์แวร์ ML ได้มีส่วนร่วมและปรับใช้ OpenXLA ได้อย่างมีประสิทธิภาพยิ่งขึ้นด้วยโครงสร้างพื้นฐาน AI ที่ล้ำสมัย" - Roger Bringman รองประธานบริษัท Compiler Software ของ NVIDIA

รายชื่อติดต่อ

หากมีคําถามโดยตรง โปรดติดต่อผู้ดูแลงานซึ่งเป็นผู้ดูแลที่ openxla.org