OpenXLA
กิจกรรมที่กำลังจะมาถึง
OpenXLA Dev Lab เดือนพฤศจิกายน 2024
ขนาด XL
เกี่ยวกับ
การติดตั้ง/การใช้งาน
เอกสารประกอบ
StableHLO
เกี่ยวกับ
เอกสารประกอบ
Shardy
เกี่ยวกับ
เอกสารประกอบ
PJRT
เกี่ยวกับ
ชุมชน
ประกาศ/การสนทนา
Discord
การประชุม
YouTube
การมีส่วนร่วม
พาร์ทเนอร์อุตสาหกรรม
Alibaba
"Alibaba นั้น OpenXLA ได้ใช้ประโยชน์จากลูกค้า Elastic GPU Service ในการฝึกและให้บริการ PyTorch โมเดลขนาดใหญ่ เราเห็นประสิทธิภาพที่ดีขึ้นอย่างมากสำหรับลูกค้าที่ใช้ OpenXLA โดยเฉพาะอย่างยิ่งความเร็ว 72% สำหรับ GPT2 และ 88% สำหรับ Swin Transformer บน GPU NVIDIA เราภูมิใจที่ได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA และทำงานร่วมกับชุมชนโอเพนซอร์สเพื่อพัฒนาคอมไพเลอร์ ML ขั้นสูงที่มอบประสิทธิภาพและประสบการณ์ของผู้ใช้ที่เหนือกว่าสำหรับลูกค้า Alibaba Cloud" - Yangqing Jia รองประธานฝ่าย AI และการวิเคราะห์ข้อมูลของ Alibaba
Amazon Web Services
"เราตื่นเต้นที่จะได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA ที่จะทำให้ทุกคนสามารถเข้าถึงโครงสร้างพื้นฐานของ AI ที่มีประสิทธิภาพ รองรับการปรับขนาด และมีความยืดหยุ่น รวมถึงสามารถทำงานร่วมกันเพิ่มเติมภายในชุมชนโอเพนซอร์สเพื่อผลักดันนวัตกรรม ที่ AWS ลูกค้าของเราปรับขนาดแอปพลิเคชัน Generative AI บน AWS Trainium และ Inferentia ขณะที่ Neuron SDK ของเราใช้ XLA ในการเพิ่มประสิทธิภาพโมเดล ML ให้มีประสิทธิภาพสูงสุดและประสิทธิภาพต่อวัตต์ที่ดีที่สุดในระดับ ด้วยระบบนิเวศ OpenXLA ที่แข็งแกร่ง นักพัฒนาซอฟต์แวร์จึงสามารถสร้างสรรค์สิ่งใหม่ๆ อย่างต่อเนื่องและมอบประสิทธิภาพที่ยอดเยี่ยมด้วยโครงสร้างพื้นฐาน ML ที่ยั่งยืน และมั่นใจได้ว่าโค้ดของตนจะนำไปใช้ได้กับฮาร์ดแวร์ที่ตนเลือกใช้" - Nafea Bshara รองประธานและวิศวกรโดดเด่นของ AWS
AMD
“เราตื่นเต้นกับทิศทางในอนาคตของ OpenXLA ในอุปกรณ์ AMD (CPU, GPU, AIE) อันกว้างขวาง และภูมิใจที่ได้เป็นส่วนหนึ่งของชุมชนนี้ เราให้ความสำคัญกับโปรเจ็กต์ต่างๆ ด้วยการกำกับดูแลอย่างเปิดกว้าง การนำไปใช้ที่ยืดหยุ่นและยืดหยุ่น ฟีเจอร์ที่ล้ำสมัยและประสิทธิภาพชั้นยอด และรอคอยที่จะได้ทำงานร่วมกันอย่างต่อเนื่องเพื่อขยายระบบนิเวศแบบโอเพนซอร์สสำหรับนักพัฒนาซอฟต์แวร์ ML" - Alan Lee รองประธานบริษัทฝ่ายพัฒนาซอฟต์แวร์ของ AMD
ขนาดใดก็ได้
" Anyscale จะพัฒนาเทคโนโลยีแบบเปิดและรองรับการปรับขนาด เช่น Ray เพื่อช่วยให้ผู้ปฏิบัติงานด้าน AI พัฒนาแอปพลิเคชันได้เร็วขึ้นและพร้อมให้บริการแก่ผู้ใช้จำนวนมากขึ้น เมื่อเร็วๆ นี้เราได้ร่วมมือกับโครงการ ALPA เพื่อใช้ OpenXLA แสดงการฝึกโมเดลประสิทธิภาพสูงสำหรับโมเดลภาษาขนาดใหญ่ในวงกว้าง เรายินดีที่ได้เข้าร่วมโปรแกรม OpenXLA และรู้สึกตื่นเต้นที่ความพยายามโอเพนซอร์สนี้ช่วยให้ใช้งานระบบ AI ในแพลตฟอร์มฮาร์ดแวร์ที่หลากหลายได้อย่างมีประสิทธิภาพ ช่วยลดอุปสรรคในการเข้าใช้งาน ลดต้นทุน และทำให้วงการ AI ก้าวหน้าขึ้นอย่างรวดเร็ว" - Philipp Moritz, CTO ของ Anyscale
แอปเปิ้ล
บริษัทออกแบบ ผลิต และทำการตลาดสมาร์ทโฟน คอมพิวเตอร์ส่วนบุคคล แท็บเล็ต อุปกรณ์ที่สวมใส่ได้ และอุปกรณ์เสริม รวมถึงจำหน่ายบริการต่างๆ ที่เกี่ยวข้อง
กลุ่ม
"โครงการ OpenXLA ถือเป็นก้าวสำคัญในเส้นทางสู่การทำให้การพัฒนาซอฟต์แวร์ ML เป็นเรื่องง่าย เราสนับสนุนพันธกิจของ OpenXLA อย่างเต็มที่และหวังว่าจะได้ใช้ประโยชน์จากความเสถียรและการกำหนดมาตรฐานของ OpenXLA ในแผนกลยุทธ์ด้านฮาร์ดแวร์และซอฟต์แวร์ของ Arm® NeoverseTM" - Peter Greenhalgh รองประธานฝ่ายเทคโนโลยีและสมาชิกของ Arm
เซเรบรา
"ที่ Cerebras เราสร้าง Accelerator สำหรับ AI ที่ออกแบบมาเพื่อช่วยให้การฝึกโมเดล AI ที่ใหญ่ที่สุดทำได้ง่ายและรวดเร็ว ระบบและซอฟต์แวร์ของเราตอบสนองผู้ใช้ได้ไม่ว่าจะอยู่ที่ไหน โดยเปิดให้มีการพัฒนา ปรับขนาด และทำซ้ำได้อย่างรวดเร็วโดยใช้เฟรมเวิร์ก ML มาตรฐานโดยไม่มีการเปลี่ยนแปลง OpenXLA ช่วยขยายการเข้าถึงของผู้ใช้และเร่งเวลาในการแก้ปัญหาด้วยการให้บริการ Cerebras Wafer-Scale Engine ที่มีอินเทอร์เฟซทั่วไปสำหรับเฟรมเวิร์ก ML ระดับสูง เราตื่นเต้นมากที่ได้เห็นระบบนิเวศของ OpenXLA เปิดให้การมีส่วนร่วม การสนับสนุน และการใช้งานของชุมชนในวงกว้างขึ้นบน GitHub" - Andy Hock รองประธานและหัวหน้าฝ่ายผลิตภัณฑ์ของ Cerebras Systems
"ซอฟต์แวร์โอเพนซอร์สเปิดโอกาสให้ทุกคนช่วยสร้างความก้าวหน้าด้าน AI Google กำลังทำงานร่วมกันในโครงการ OpenXLA เพื่อสานต่อความมุ่งมั่นของเราที่จะโอเพนซอร์สและส่งเสริมการใช้งานเครื่องมือ AI ที่ยกระดับมาตรฐานประสิทธิภาพ ML, แก้ไขปัญหาความไม่เข้ากันระหว่างเฟรมเวิร์กกับฮาร์ดแวร์ และสามารถกำหนดค่าใหม่เพื่อจัดการกับ Use Case ที่นักพัฒนาแอปปรับให้เหมาะกับผู้ใช้ เราตื่นเต้นมากที่จะได้พัฒนาเครื่องมือเหล่านี้ร่วมกับชุมชน OpenXLA เพื่อให้นักพัฒนาซอฟต์แวร์สามารถขับเคลื่อนความก้าวหน้าของชุด AI ในเลเยอร์ต่างๆ มากมาย" - Jeff Dean สมาชิกอาวุโสและรองประธานอาวุโสฝ่ายวิจัยและ AI ของ Google
กราฟคอร์
"ไปป์ไลน์คอมไพเลอร์ IPU ของเราใช้ XLA ตั้งแต่เผยแพร่สู่สาธารณะ ด้วยความเป็นอิสระและความเสถียรของแพลตฟอร์ม XLA ทำให้แพลตฟอร์มนี้เป็นฟรอนท์เอนด์ที่สมบูรณ์แบบสำหรับการนำซิลิคอนใหม่ๆ มาใช้ ความยืดหยุ่นของ XLA ช่วยให้เราสามารถแสดงคุณลักษณะฮาร์ดแวร์ใหม่ๆ ของ IPU และบรรลุประสิทธิภาพที่ล้ำสมัยด้วยเฟรมเวิร์กหลายระบบ คำค้นหาหลายล้านรายการต่อวันถูกให้บริการโดยระบบที่ใช้โค้ดซึ่งคอมไพล์โดย XLA เรารู้สึกตื่นเต้นกับทิศทางของ OpenXLA และหวังว่าจะได้ช่วยดำเนินโครงการโอเพนซอร์สนี้ต่อไป เราเชื่อว่าผลิตภัณฑ์นี้จะเข้ามาเป็นองค์ประกอบหลักในอนาคตของ AI/ML" - David Norman ผู้อำนวยการฝ่ายการออกแบบซอฟต์แวร์ของ Graphcore
หน้ากอด
"การทำให้โมเดลได้ง่ายๆ อย่างมีประสิทธิภาพด้วยฮาร์ดแวร์ทุกชนิดเป็นความท้าทายทางเทคนิคที่ลึก และเป็นเป้าหมายสำคัญสำหรับภารกิจของเราคือการทำให้แมชชีนเลิร์นนิงที่ดีเป็นประชาธิปไตย ที่ Hugging Face เราได้เปิดใช้ XLA สำหรับโมเดลการสร้างข้อความของ TensorFlow และเพิ่มความเร็วได้ประมาณ 100 เท่า นอกจากนี้ เรายังทำงานร่วมกับทีมวิศวกรอย่างใกล้ชิดที่ Intel, AWS, Habana, Graphcore, AMD, Qualcomm และ Google เพื่อสร้างบริดจ์โอเพนซอร์สระหว่างเฟรมเวิร์กและซิลิคอนแต่ละรายการ เพื่อนำเสนอประสิทธิภาพที่เหนือกว่าให้แก่ผู้ใช้ผ่านไลบรารี Optimum ของเรา OpenXLA ได้รับประกันถึงองค์ประกอบที่ใช้สร้างสรรค์มาตรฐานซึ่งเราสามารถสร้างความสามารถในการทำงานร่วมกันที่จำเป็น และเราก็แทบอดใจรอไม่ไหวที่จะติดตามและมีส่วนร่วม!" - Morgan Funtowicz หัวหน้าฝ่ายเพิ่มประสิทธิภาพแมชชีนเลิร์นนิงแห่ง Hugging Face
Intel
"Intel เชื่อมั่นในเรื่องการเข้าถึง AI ที่เปิดกว้างและเป็นประชาธิปไตย CPU, GPU, ของ Intel, Habana Gaudi Accelerator และซอฟต์แวร์ AI ที่ทำงานด้วยระบบ API เพียงแห่งเดียว ซึ่งรวมถึง OpenVINO ที่ขับเคลื่อนภาระงาน ML ได้ทุกที่ตั้งแต่ซูเปอร์คอมพิวเตอร์ Exascale ไปจนถึงการติดตั้งใช้งานระบบคลาวด์หลักๆ เราร่วมมือกับสมาชิก OpenXLA คนอื่นๆ เพื่อพยายามสนับสนุนเครื่องมือคอมไพเลอร์ ML ที่ประกอบขึ้นเป็นองค์ประกอบตามมาตรฐานที่ผลักดันให้เกิดนวัตกรรมในสภาพแวดล้อมเฟรมเวิร์กและฮาร์ดแวร์ที่หลากหลายเพื่อเร่งการพัฒนาวิทยาศาสตร์และการวิจัยที่เปลี่ยนแปลงโลก " - Greg Lavender รองประธานอาวุโสของ Intel, CTO และ GM ของ Software & Advanced Technology Group
Meta
"ในการวิจัยของ Meta AI เราใช้ XLA ซึ่งเป็นเทคโนโลยีหลักของโปรเจ็กต์ OpenXLA เพื่อเปิดใช้โมเดล PyTorch สำหรับ Cloud TPU และปรับปรุงประสิทธิภาพได้อย่างมากในโปรเจ็กต์สำคัญๆ เราเชื่อว่าโอเพนซอร์สจะช่วยให้นวัตกรรมในโลกเปลี่ยนแปลงไปอย่างรวดเร็ว และตื่นเต้นที่ได้เป็นส่วนหนึ่งของโครงการ OpenXLA" - Soumith Chintala หัวหน้าผู้ดูแลของ PyTorch
NVIDIA
"ในฐานะสมาชิกผู้ก่อตั้งโครงการ OpenXLA Project NVIDIA ตั้งตารอที่จะได้ร่วมงานกันเพื่อความก้าวหน้าด้าน AI/ML กับชุมชน OpenXLA และมั่นใจมากว่านักพัฒนาซอฟต์แวร์ ML ได้มีส่วนร่วมและปรับใช้ OpenXLA ได้อย่างมีประสิทธิภาพยิ่งขึ้นด้วยโครงสร้างพื้นฐาน AI ที่ล้ำสมัย" - Roger Bringman รองประธานบริษัท Compiler Software ของ NVIDIA