OpenXLA
XLA
StableHLO
PJRT (Quản lý bản quyền)
Tham gia cộng đồng OpenXLA
Thông báo
Thảo luận
Cuộc họp
GitHub
Đóng góp cho OpenXLA
XLA là gì?
Đóng góp cho XLA
StableHLO là gì?
Tài liệu tham khảo
Đối tác trong ngành
Alibaba
"Tại Alibaba, OpenXLA được những khách hàng sử dụng Dịch vụ GPU Elastic tận dụng để đào tạo và phân phối các mô hình PyTorch lớn. Chúng tôi đã thấy những cải thiện hiệu suất đáng kể cho những khách hàng sử dụng OpenXLA, đáng chú ý là tốc độ tăng 72% cho GPT2 và 88% cho Swin Transformer trên GPU NVIDIA. Chúng tôi tự hào là thành viên sáng lập của Dự án OpenXLA và hợp tác với cộng đồng nguồn mở để phát triển một trình biên dịch học máy tiên tiến mang lại hiệu suất và trải nghiệm người dùng vượt trội cho các khách hàng của Alibaba Cloud." – Dương Thanh Jia, Phó chủ tịch bộ phận Trí tuệ nhân tạo và Phân tích dữ liệu, Alibaba
Amazon Web Services
"Chúng tôi rất hân hạnh được trở thành một thành viên sáng lập của Dự án OpenXLA. Dự án này sẽ mang đến cho mọi người quyền truy cập vào cơ sở hạ tầng AI (trí tuệ nhân tạo) hiệu quả, có thể mở rộng và dễ mở rộng, cũng như cộng tác hơn nữa trong cộng đồng nguồn mở để thúc đẩy sự đổi mới. Tại AWS, khách hàng của chúng tôi mở rộng quy mô của các ứng dụng AI tạo sinh trên AWS Trainium và Inferentia, còn SDK Neuron của chúng tôi sử dụng XLA để tối ưu hoá các mô hình học máy nhằm đạt hiệu suất cao và hiệu suất cao nhất trên mỗi watt. Với hệ sinh thái OpenXLA mạnh mẽ, nhà phát triển có thể tiếp tục đổi mới và mang lại hiệu suất tuyệt vời với một cơ sở hạ tầng học máy bền vững. Đồng thời, nhà phát triển cũng biết rằng họ có thể di chuyển mã để sử dụng theo lựa chọn phần cứng của mình.” – Nafea Bshara, Phó chủ tịch kiêm Kỹ sư xuất sắc, AWS
AMD
“Chúng tôi rất hào hứng về định hướng tương lai của OpenXLA trên nhiều thiết bị AMD (CPU, GPU, AIE) và tự hào được tham gia cộng đồng này. Chúng tôi đánh giá cao các dự án có tính năng quản trị mở, khả năng ứng dụng linh hoạt và trên phạm vi rộng, các tính năng tiên tiến và hiệu suất đỉnh cao. Chúng tôi rất mong được tiếp tục hợp tác để mở rộng hệ sinh thái nguồn mở cho các nhà phát triển công nghệ học máy.” – Alan Lee, Phó chủ tịch tập đoàn, bộ phận Phát triển phần mềm, AMD
Mọi quy mô
" Anyscale phát triển những công nghệ mở và có thể mở rộng như Ray để giúp các chuyên viên AI (trí tuệ nhân tạo) phát triển ứng dụng nhanh hơn và cung cấp ứng dụng cho nhiều người dùng hơn. Gần đây, chúng tôi đã hợp tác với dự án ALPA để sử dụng OpenXLA nhằm huấn luyện mô hình hiệu suất cao cho các mô hình Ngôn ngữ lớn trên quy mô lớn. Chúng tôi rất vui khi tham gia OpenXLA và vui mừng vì nỗ lực nguồn mở này giúp chạy khối lượng công việc trí tuệ nhân tạo (AI) trên nhiều nền tảng phần cứng một cách hiệu quả, qua đó gỡ bỏ rào cản gia nhập, giảm chi phí và phát triển lĩnh vực AI một cách nhanh chóng hơn." – Philipp Moritz, Giám đốc kỹ thuật của Anyscale
Quả táo
Apple Inc. thiết kế, sản xuất và tiếp thị điện thoại thông minh, máy tính cá nhân, máy tính bảng, thiết bị đeo và phụ kiện, đồng thời bán nhiều dịch vụ có liên quan.
Nhóm
"Dự án OpenXLA đánh dấu một cột mốc quan trọng trên hành trình đơn giản hoá quá trình phát triển phần mềm học máy. Chúng tôi hoàn toàn ủng hộ sứ mệnh OpenXLA và mong muốn thúc đẩy sự ổn định cũng như tiêu chuẩn hoá OpenXLA trên lộ trình phần cứng và phần mềm Arm® NeoverseTM.” – Peter Greenhalgh, Phó chủ tịch bộ phận Công nghệ và thành viên của Arm.
Ngựa lùn
"Tại Cerebras, chúng tôi xây dựng các chương trình tăng tốc AI được thiết kế để giúp việc đào tạo ngay cả những mô hình trí tuệ nhân tạo lớn nhất trở nên nhanh chóng và dễ dàng. Các hệ thống và phần mềm của chúng tôi đáp ứng nhu cầu của người dùng – cho phép phát triển, mở rộng quy mô và lặp lại nhanh chóng bằng cách sử dụng khung học máy tiêu chuẩn mà không cần thay đổi. OpenXLA giúp mở rộng phạm vi tiếp cận người dùng và đẩy nhanh thời gian đưa ra giải pháp bằng cách cung cấp cho Cerebras Wafer-Scale Engine một giao diện chung cho các khung học máy cấp cao hơn. Chúng tôi rất vui mừng khi thấy hệ sinh thái OpenXLA có sẵn cho cộng đồng tham gia, đóng góp và sử dụng nhiều hơn nữa trên GitHub.” – Andy Hock, Phó chủ tịch kiêm Giám đốc sản phẩm, Cerebras Systems
"Phần mềm nguồn mở mang đến cho mọi người cơ hội góp phần tạo ra những bước đột phá về trí tuệ nhân tạo (AI). Tại Google, chúng tôi đang hợp tác Dự án OpenXLA để tiếp tục thực hiện cam kết về nguồn mở và thúc đẩy việc áp dụng công cụ AI (trí tuệ nhân tạo) nâng cao tiêu chuẩn về hiệu suất học máy, giải quyết trường hợp không tương thích giữa khung và phần cứng, đồng thời có thể định cấu hình lại để giải quyết các trường hợp sử dụng phù hợp với nhà phát triển. Chúng tôi rất vui khi được phát triển những công cụ này với cộng đồng OpenXLA để các nhà phát triển có thể thúc đẩy sự tiến bộ trên nhiều lớp khác nhau của ngăn xếp AI." – Jeff Dean, Nghiên cứu viên cấp cao kiêm Phó chủ tịch cấp cao tại Google Nghiên cứu và AI (trí tuệ nhân tạo)
Đồ thị
"Quy trình biên dịch IPU của chúng tôi sử dụng XLA từ khi chúng được công khai. Nhờ sự độc lập và ổn định của nền tảng XLA, XLA cung cấp giao diện người dùng lý tưởng để sử dụng silicon mới. Sự linh hoạt của XLA cho phép chúng tôi triển khai các tính năng phần cứng mới của IPU và đạt được hiệu suất hiện đại bằng nhiều khung. Hàng triệu truy vấn mỗi ngày được các hệ thống chạy mã do XLA biên dịch. Chúng tôi rất hào hứng với định hướng của OpenXLA và hy vọng có thể tiếp tục đóng góp cho dự án nguồn mở này. Chúng tôi tin rằng API này sẽ trở thành một thành phần cốt lõi trong tương lai của công nghệ trí tuệ nhân tạo/học máy.” – David Norman, Giám đốc thiết kế phần mềm, Graphcore
Cho ôm cái
“Giúp dễ dàng vận hành hiệu quả bất kỳ mô hình nào trên mọi phần cứng là một thách thức kỹ thuật sâu sắc và là mục tiêu quan trọng cho sứ mệnh của chúng tôi là dân chủ hoá công nghệ học máy hiệu quả. Tại Hugging Face, chúng tôi đã bật XLA cho các mô hình tạo văn bản TensorFlow và đạt được tốc độ tăng khoảng 100 lần. Hơn nữa, chúng tôi hợp tác chặt chẽ với các nhóm kỹ thuật tại Intel, AWS, Habana, Graphcore, AMD, Qualcomm và Google, xây dựng cầu nối nguồn mở giữa các khung và mỗi silicon, nhằm cung cấp hiệu quả vượt trội cho người dùng cuối thông qua thư viện Optimum của chúng tôi. OpenXLA hứa hẹn với các khối xây dựng tiêu chuẩn để chúng tôi có thể xây dựng khả năng tương tác cần thiết và chúng tôi rất háo hức theo dõi và đóng góp!"
Intel
"Tại Intel, chúng tôi tin tưởng vào quyền tiếp cận tự do và dân chủ cho AI. CPU Intel, GPU, máy tăng tốc Habana Gaudi và phần mềm trí tuệ nhân tạo sử dụng mộtAPI (bao gồm cả OpenVINO) giúp thúc đẩy khối lượng công việc học máy ở mọi nơi, từ siêu máy tính exascale cho đến các quy trình triển khai lớn trên đám mây. Cùng với các thành viên khác của OpenXLA, chúng tôi tìm cách hỗ trợ các công cụ biên dịch máy học dựa trên tiêu chuẩn và được hợp thành phần, giúp thúc đẩy quá trình đổi mới trên nhiều khung và môi trường phần cứng, qua đó đẩy nhanh quá trình nghiên cứu và khoa học đang thay đổi trên thế giới.”
Meta
"Trong nghiên cứu, tại Meta AI, chúng tôi đã sử dụng XLA, một công nghệ cốt lõi của dự án OpenXLA, để hỗ trợ các mô hình PyTorch cho Cloud TPU và có thể cải thiện đáng kể hiệu suất cho các dự án quan trọng. Chúng tôi tin rằng mã nguồn mở thúc đẩy tốc độ đổi mới trên thế giới và chúng tôi rất vui mừng được tham gia Dự án OpenXLA.” – Soumith Chintala, Giám đốc bảo trì, PyTorch
NVIDIA
"Là một thành viên sáng lập của Dự án OpenXLA, NVIDIA rất mong được hợp tác với cộng đồng OpenXLA trong việc thúc đẩy những tiến bộ về trí tuệ nhân tạo/học máy và tin rằng với sự tham gia và sử dụng rộng rãi OpenXLA, các nhà phát triển công nghệ học máy sẽ có được cơ sở hạ tầng AI hiện đại nhất." – Theo Giám đốc điều hành phần mềm Trình biên dịch, NVIDIA.