OpenXLA
เข้าร่วมชุมชน OpenXLA
ประกาศ
พูดคุยกัน
การประชุม
GitHub
ร่วมให้ข้อมูลกับ OpenXLA
XLA คืออะไร
ร่วมให้ข้อมูลใน XLA
StableHLO คืออะไร
เอกสารประกอบอ้างอิง
พาร์ทเนอร์อุตสาหกรรม
Alibaba
"ที่ Alibaba นั้น OpenXLA ลูกค้าที่ใช้ Elastic GPU Service จะใช้เพื่อฝึกและให้บริการโมเดล PyTorch ขนาดใหญ่ เราได้เห็นการปรับปรุงประสิทธิภาพที่ดีขึ้นอย่างมากสำหรับลูกค้าที่ใช้ OpenXLA โดยเฉพาะอย่างยิ่งความเร็ว 72% สำหรับ GPT2 และ 88% สำหรับ Swin Transformer บน GPU ของ NVIDIA เราภูมิใจที่ได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA และทำงานร่วมกับชุมชนโอเพนซอร์สเพื่อพัฒนาคอมไพเลอร์ ML ขั้นสูงที่มอบประสิทธิภาพที่เหนือระดับและประสบการณ์ของผู้ใช้ที่เหนือกว่าสำหรับลูกค้าของ Alibaba Cloud" - Yangqing Jia รองประธานฝ่าย AI และการวิเคราะห์ข้อมูลของ Alibaba
Amazon Web Services
“เราตื่นเต้นที่จะได้เป็นสมาชิกผู้ก่อตั้งโครงการ OpenXLA ที่จะทำให้ทุกคนสามารถเข้าถึงโครงสร้างพื้นฐานด้าน AI ที่มีประสิทธิภาพ รองรับการปรับขนาด และมีความยืดหยุ่น ตลอดจนมีการทำงานร่วมกันเพิ่มเติมภายในชุมชนโอเพนซอร์สเพื่อผลักดันนวัตกรรมต่างๆ ที่ AWS ลูกค้าของเราสามารถปรับขนาดแอปพลิเคชัน Generative AI บน AWS Trainium และ Inferentia ขณะที่ Neuron SDK ของเราอาศัย XLA ในการเพิ่มประสิทธิภาพโมเดล ML ให้มีประสิทธิภาพสูงและประสิทธิภาพต่อวัตต์ที่ดีที่สุดในระดับ ด้วยระบบนิเวศ OpenXLA ที่แข็งแกร่ง นักพัฒนาซอฟต์แวร์จึงสร้างสรรค์นวัตกรรมใหม่ๆ และสร้างประสิทธิภาพที่ยอดเยี่ยมต่อไปได้ด้วยโครงสร้างพื้นฐาน ML ที่ยั่งยืน และมั่นใจได้ว่าโค้ดของตนจะพกพาไปใช้ได้กับฮาร์ดแวร์ที่เลือก" - Nafea Bshara รองประธานและวิศวกรดีเด่นของ AWS
AMD
“เราตื่นเต้นกับทิศทางในอนาคตของ OpenXLA สำหรับอุปกรณ์ AMD (CPU, GPU, AIE) อย่างกว้างขวางและภูมิใจที่ได้เป็นส่วนหนึ่งของชุมชนนี้ เราให้ความสำคัญกับโปรเจ็กต์ต่างๆ ด้วยการกำกับดูแลแบบเปิด การใช้งานที่ยืดหยุ่นและใช้งานได้หลากหลาย ฟีเจอร์ที่ล้ำสมัย และประสิทธิภาพชั้นยอด และตั้งตารอการทำงานร่วมกันอย่างต่อเนื่องเพื่อขยายระบบนิเวศแบบโอเพนซอร์สให้กับนักพัฒนาซอฟต์แวร์ ML" - Alan Lee รองประธานบริษัทฝ่ายพัฒนาซอฟต์แวร์ของ AMD
ไม่จำกัด
" Anyscale พัฒนาเทคโนโลยีแบบเปิดและรองรับการปรับขนาด เช่น Ray เพื่อช่วยให้ผู้ปฏิบัติงานด้าน AI พัฒนาแอปพลิเคชันได้เร็วขึ้นและพร้อมให้บริการแก่ผู้ใช้จำนวนมากขึ้น เมื่อเร็วๆ นี้เราได้ร่วมมือกับโครงการ ALPA เพื่อใช้ OpenXLA แสดงการฝึกโมเดลประสิทธิภาพสูงสำหรับโมเดลภาษาขนาดใหญ่ในวงกว้าง เรายินดีที่ได้เข้าร่วมใน OpenXLA และรู้สึกตื่นเต้นที่ความพยายามแบบโอเพนซอร์สนี้ช่วยให้ระบบเรียกใช้ภาระงาน AI บนแพลตฟอร์มฮาร์ดแวร์ที่หลากหลายได้อย่างมีประสิทธิภาพ ช่วยลดอุปสรรคในการเข้าใช้งาน ลดต้นทุน และพัฒนาวงการ AI ให้เร็วขึ้น" - Philipp Moritz, CTO, Anyscale
แอปเปิ้ล
ออกแบบ ผลิต และทำการตลาดสมาร์ทโฟน คอมพิวเตอร์ส่วนบุคคล แท็บเล็ต อุปกรณ์ที่สวมใส่ได้ และอุปกรณ์เสริม รวมถึงจำหน่ายบริการต่างๆ ที่เกี่ยวข้อง
กลุ่ม
"โครงการ OpenXLA ถือเป็นก้าวสำคัญบนเส้นทางการลดความซับซ้อนในการพัฒนาซอฟต์แวร์ ML เราสนับสนุนพันธกิจของ OpenXLA อย่างเต็มที่และหวังว่าจะได้ใช้ประโยชน์จากความเสถียรและมาตรฐานของ OpenXLA ในแผนกลยุทธ์ด้านฮาร์ดแวร์และซอฟต์แวร์ของ Arm® NeoverseTM" - Peter Greenhalgh, รองประธานฝ่ายเทคโนโลยีและ Fellow, Arm
เซเรบรา
"ที่ Cerebras เราสร้างตัวเร่งการประมวลผล AI ที่ออกแบบมาเพื่อทำให้การฝึกโมเดล AI ที่ใหญ่ที่สุดทำได้ง่ายและรวดเร็ว ระบบและซอฟต์แวร์ของเรารองรับผู้ใช้ได้อย่างตรงจุด ซึ่งช่วยให้สามารถพัฒนา ปรับขนาด และทำซ้ำได้อย่างรวดเร็วโดยใช้เฟรมเวิร์ก ML มาตรฐานโดยไม่มีการเปลี่ยนแปลง OpenXLA ช่วยขยายการเข้าถึงผู้ใช้และเร่งเวลาในการแก้ไขปัญหาด้วยการให้บริการ Cerebras Wafer-Scale Engine ที่มีอินเทอร์เฟซทั่วไปสำหรับเฟรมเวิร์ก ML ระดับสูง เราตื่นเต้นจริงๆ ที่ได้เห็นระบบนิเวศของ OpenXLA พร้อมสำหรับการมีส่วนร่วม การสนับสนุน และการใช้งานแก่ชุมชนในวงกว้างมากขึ้น” - Andy Hock รองประธานและหัวหน้าฝ่ายผลิตภัณฑ์ของ Cerebras Systems
"ซอฟต์แวร์โอเพนซอร์สเปิดโอกาสให้ทุกคนช่วยสร้างความก้าวหน้าด้าน AI Google กำลังทำงานร่วมกันในโครงการ OpenXLA เพื่อสานต่อความมุ่งมั่นของเราที่จะโอเพ่นซอร์สและส่งเสริมการปรับใช้เครื่องมือ AI ที่ยกระดับมาตรฐานสำหรับประสิทธิภาพของ ML แก้ไขปัญหาความไม่เข้ากันระหว่างเฟรมเวิร์กกับฮาร์ดแวร์ และสามารถกำหนดค่าใหม่ได้เพื่อจัดการกับกรณีการใช้งานที่ปรับให้เหมาะกับแต่ละบุคคล เราตื่นเต้นที่จะได้พัฒนาเครื่องมือเหล่านี้ร่วมกับชุมชน OpenXLA เพื่อให้นักพัฒนาซอฟต์แวร์สามารถขับเคลื่อนความก้าวหน้าของชุด AI ในเลเยอร์ต่างๆ ได้มากขึ้น" - Jeff Dean สมาชิกอาวุโสและรองประธานอาวุโสฝ่ายวิจัยและ AI ของ Google
กราฟแกน
"ไปป์ไลน์ของคอมไพเลอร์ IPU ของเราใช้ XLA ตั้งแต่เผยแพร่สู่สาธารณะ ด้วยความเป็นอิสระและความเสถียรของแพลตฟอร์ม XLA แพลตฟอร์มนี้จึงเป็นฟรอนท์เอนด์ที่สมบูรณ์แบบสำหรับการทำให้ซิลิคอนใหม่ๆ ขึ้นมา ความยืดหยุ่นของ XLA ช่วยให้เราสามารถแสดงฟีเจอร์ฮาร์ดแวร์ใหม่ๆ ของ IPU และได้ประสิทธิภาพขั้นสูงด้วยเฟรมเวิร์กที่หลากหลาย ข้อความค้นหาหลายล้านรายการต่อวันถูกแสดงโดยระบบที่ใช้โค้ดซึ่งคอมไพล์โดย XLA เรารู้สึกตื่นเต้นกับทิศทางของ OpenXLA และหวังว่าจะได้มีส่วนร่วมในโครงการโอเพนซอร์สนี้ต่อไป เราเชื่อว่าเทคโนโลยีนี้จะสร้างองค์ประกอบหลักในอนาคตของ AI/ML" - David Norman ผู้อำนวยการฝ่ายการออกแบบซอฟต์แวร์ของ Graphcore
หน้ากอด
"การทำให้โมเดลต่างๆ ใช้งานได้อย่างมีประสิทธิภาพด้วยฮาร์ดแวร์ทุกประเภทเป็นความท้าทายทางเทคนิคอย่างมาก และเป็นเป้าหมายสำคัญสำหรับภารกิจของเราคือการทำให้แมชชีนเลิร์นนิงที่ดีเป็นประชาธิปไตย สำหรับ Hugging Face เราได้เปิดใช้ XLA สำหรับโมเดลการสร้างข้อความของ TensorFlow และเพิ่มความเร็วได้ประมาณ 100 เท่า นอกจากนี้ เรายังทำงานร่วมกันอย่างใกล้ชิดกับทีมวิศวกรของ Intel, AWS, Habana, Graphcore, AMD, Qualcomm และ Google เพื่อสร้างบริดจ์โอเพนซอร์สระหว่างเฟรมเวิร์กและแต่ละซิลิคอน เพื่อนำเสนอประสิทธิภาพที่เหนือชั้นแก่ผู้ใช้ผ่านไลบรารี Optimum ของเรา OpenXLA ให้คำมั่นสัญญาที่ใช้องค์ประกอบพื้นฐานในการสร้างมาตรฐานนี้ ซึ่งเราสามารถสร้างความสามารถในการทำงานร่วมกันที่จำเป็นอย่างยิ่ง และเราก็ตื่นเต้นที่จะได้ติดตามและมีส่วนร่วมในเร็วๆ นี้" - Morgan Funtowicz หัวหน้าฝ่ายเพิ่มประสิทธิภาพแมชชีนเลิร์นนิงแห่งการกอดหน้า
Intel
"Intel เราเชื่อมั่นว่าการเข้าถึง AI อย่างเปิดกว้างและเป็นประชาธิปไตย Intel CPU, GPU, Habana Gaudi Accelerator และซอฟต์แวร์ AI ที่ทำงานด้วยระบบ API เพียงชนิดเดียว รวมถึง OpenVINO ขับเคลื่อนภาระงาน ML ได้ทุกที่ตั้งแต่ซูเปอร์คอมพิวเตอร์ Exascale ไปจนถึงการติดตั้งใช้งานระบบคลาวด์ขนาดใหญ่ เราร่วมมือกับสมาชิก OpenXLA คนอื่นๆ เพื่อสนับสนุนเครื่องมือคอมไพเลอร์ ML ที่มีการปรับแต่งตามมาตรฐานที่ขับเคลื่อนนวัตกรรมต่างๆ ในสภาพแวดล้อมของเฟรมเวิร์กและฮาร์ดแวร์ที่หลากหลายเพื่อเร่งการพัฒนาวิทยาศาสตร์และการวิจัยที่เปลี่ยนแปลงโลก " - Greg Lavender, รองประธานของ Intel, CTO และ GM ของ Software & Advanced Technology Group
Meta
"ในการวิจัยของ Meta AI เราใช้ XLA ซึ่งเป็นเทคโนโลยีหลักของโปรเจ็กต์ OpenXLA เพื่อเปิดใช้โมเดล PyTorch สำหรับ Cloud TPU และปรับปรุงประสิทธิภาพในโปรเจ็กต์สำคัญๆ ได้อย่างมาก เราเชื่อว่าโอเพนซอร์สจะช่วยให้ความเร็วในการสร้างนวัตกรรมเกิดขึ้นทั่วโลก และตื่นเต้นที่ได้เป็นส่วนหนึ่งของโครงการ OpenXLA" - Soumith Chintala หัวหน้าผู้ดูแลของ PyTorch
NVIDIA
"ในฐานะสมาชิกผู้ก่อตั้งโครงการ OpenXLA ทาง NVIDIA หวังว่าจะได้ทำงานร่วมกันเพื่อพัฒนา AI/ML กับชุมชน OpenXLA และมั่นใจว่าเมื่อมีการมีส่วนร่วมและการนำ OpenXLA มาใช้ในวงกว้างมากขึ้น นักพัฒนาซอฟต์แวร์ ML จะได้รับการส่งเสริมด้วยโครงสร้างพื้นฐาน AI ที่ล้ำสมัย" - Roger Bringmann, VP, Compiler Software, NVIDIA