Hệ sinh thái mở gồm các thành phần cơ sở hạ tầng học máy (ML) hiệu quả, di động và có thể mở rộng, giúp đơn giản hoá quá trình phát triển công nghệ học máy bằng cách phân mảnh các công cụ giữa khung giao diện người dùng và phần phụ trợ phần cứng. Do các công ty đầu ngành xây dựng trong lĩnh vực tạo mô hình, phần mềm và phần cứng AI.
Một trình biên dịch học máy (ML) cho GPU, CPU và các trình tăng tốc học máy.
Opset di động để xuất khung, nhập trình biên dịch và giảm không phụ thuộc vào phần cứng.
Một giao diện độc lập với phần cứng và khung dành cho trình biên dịch và môi trường thời gian chạy học máy.

Tham gia cộng đồng OpenXLA

Tham gia danh sách gửi thư thông báo Openxla để nhận tin tức về các bản phát hành, sự kiện và các thông tin cập nhật chính khác.
Tham gia Openxla để thảo luận danh sách gửi thư để thảo luận về thiết kế và phát triển.
Xem lại ghi chú trong các cuộc họp trước và thêm các cuộc họp sắp tới vào lịch của bạn.
Truy cập dự án OpenXLA và kho lưu trữ trên GitHub.

Đóng góp cho OpenXLA

Những hướng dẫn này sẽ giúp bạn bắt đầu với tư cách là một cộng tác viên của OpenXLA.
XLA (Đại số tuyến tính tăng tốc) là một trình biên dịch nguồn mở dành cho công nghệ học máy. Trình biên dịch XLA lấy các mô hình từ các khung phổ biến như PyTorch, TensorFlow và JAX rồi tối ưu hoá các mô hình đó để thực thi hiệu suất cao trên nhiều nền tảng phần cứng, bao gồm GPU, CPU và trình tăng tốc học máy.
Hãy bắt đầu phát triển dự án XLA.
StableHLO là một bộ toán tử dành cho các hoạt động cấp cao (HLO) trong các mô hình học máy (ML). Về cơ bản, đây là lớp hỗ trợ di chuyển giữa các khung máy học và trình biên dịch máy học: các khung máy học tạo ra các chương trình StableHLO tương thích với các trình biên dịch máy học sử dụng các chương trình StableHLO.
Tài liệu tham khảo về hoạt động XLA và StableHLO.

Đối tác trong ngành

Dự án OpenXLA được các tổ chức phần mềm và phần mềm học máy hàng đầu hợp tác phát triển.
Biểu trưng của Alibaba

Alibaba

"Tại Alibaba, OpenXLA được những khách hàng sử dụng Dịch vụ GPU Elastic tận dụng để đào tạo và phân phối các mô hình PyTorch lớn. Chúng tôi đã thấy những cải thiện hiệu suất đáng kể cho những khách hàng sử dụng OpenXLA, đáng chú ý là tốc độ tăng 72% cho GPT2 và 88% cho Swin Transformer trên GPU NVIDIA. Chúng tôi tự hào là thành viên sáng lập của Dự án OpenXLA và hợp tác với cộng đồng nguồn mở để phát triển một trình biên dịch học máy tiên tiến mang lại hiệu suất và trải nghiệm người dùng vượt trội cho các khách hàng của Alibaba Cloud." – Dương Thanh Jia, Phó chủ tịch bộ phận Trí tuệ nhân tạo và Phân tích dữ liệu, Alibaba

Biểu trưng Amazon Web Services

Amazon Web Services

"Chúng tôi rất hân hạnh được trở thành một thành viên sáng lập của Dự án OpenXLA. Dự án này sẽ mang đến cho mọi người quyền truy cập vào cơ sở hạ tầng AI (trí tuệ nhân tạo) hiệu quả, có thể mở rộng và dễ mở rộng, cũng như cộng tác hơn nữa trong cộng đồng nguồn mở để thúc đẩy sự đổi mới. Tại AWS, khách hàng của chúng tôi mở rộng quy mô của các ứng dụng AI tạo sinh trên AWS Trainium và Inferentia, còn SDK Neuron của chúng tôi sử dụng XLA để tối ưu hoá các mô hình học máy nhằm đạt hiệu suất cao và hiệu suất cao nhất trên mỗi watt. Với hệ sinh thái OpenXLA mạnh mẽ, nhà phát triển có thể tiếp tục đổi mới và mang lại hiệu suất tuyệt vời với một cơ sở hạ tầng học máy bền vững. Đồng thời, nhà phát triển cũng biết rằng họ có thể di chuyển mã để sử dụng theo lựa chọn phần cứng của mình.” – Nafea Bshara, Phó chủ tịch kiêm Kỹ sư xuất sắc, AWS

Biểu trưng AMD

AMD

“Chúng tôi rất hào hứng về định hướng tương lai của OpenXLA trên nhiều thiết bị AMD (CPU, GPU, AIE) và tự hào được tham gia cộng đồng này. Chúng tôi đánh giá cao các dự án có tính năng quản trị mở, khả năng ứng dụng linh hoạt và trên phạm vi rộng, các tính năng tiên tiến và hiệu suất đỉnh cao. Chúng tôi rất mong được tiếp tục hợp tác để mở rộng hệ sinh thái nguồn mở cho các nhà phát triển công nghệ học máy.” – Alan Lee, Phó chủ tịch tập đoàn, bộ phận Phát triển phần mềm, AMD

Biểu trưng của Anyscale

Mọi quy mô

" Anyscale phát triển những công nghệ mở và có thể mở rộng như Ray để giúp các chuyên viên AI (trí tuệ nhân tạo) phát triển ứng dụng nhanh hơn và cung cấp ứng dụng cho nhiều người dùng hơn. Gần đây, chúng tôi đã hợp tác với dự án ALPA để sử dụng OpenXLA nhằm huấn luyện mô hình hiệu suất cao cho các mô hình Ngôn ngữ lớn trên quy mô lớn. Chúng tôi rất vui khi tham gia OpenXLA và vui mừng vì nỗ lực nguồn mở này giúp chạy khối lượng công việc trí tuệ nhân tạo (AI) trên nhiều nền tảng phần cứng một cách hiệu quả, qua đó gỡ bỏ rào cản gia nhập, giảm chi phí và phát triển lĩnh vực AI một cách nhanh chóng hơn." – Philipp Moritz, Giám đốc kỹ thuật của Anyscale

Biểu trưng của Apple

Quả táo

Apple Inc. thiết kế, sản xuất và tiếp thị điện thoại thông minh, máy tính cá nhân, máy tính bảng, thiết bị đeo và phụ kiện, đồng thời bán nhiều dịch vụ có liên quan.

Biểu trưng Arm

Nhóm

"Dự án OpenXLA đánh dấu một cột mốc quan trọng trên hành trình đơn giản hoá quá trình phát triển phần mềm học máy. Chúng tôi hoàn toàn ủng hộ sứ mệnh OpenXLA và mong muốn thúc đẩy sự ổn định cũng như tiêu chuẩn hoá OpenXLA trên lộ trình phần cứng và phần mềm Arm® NeoverseTM.” – Peter Greenhalgh, Phó chủ tịch bộ phận Công nghệ và thành viên của Arm.

Biểu trưng của Cerebras

Ngựa lùn

"Tại Cerebras, chúng tôi xây dựng các chương trình tăng tốc AI được thiết kế để giúp việc đào tạo ngay cả những mô hình trí tuệ nhân tạo lớn nhất trở nên nhanh chóng và dễ dàng. Các hệ thống và phần mềm của chúng tôi đáp ứng nhu cầu của người dùng – cho phép phát triển, mở rộng quy mô và lặp lại nhanh chóng bằng cách sử dụng khung học máy tiêu chuẩn mà không cần thay đổi. OpenXLA giúp mở rộng phạm vi tiếp cận người dùng và đẩy nhanh thời gian đưa ra giải pháp bằng cách cung cấp cho Cerebras Wafer-Scale Engine một giao diện chung cho các khung học máy cấp cao hơn. Chúng tôi rất vui mừng khi thấy hệ sinh thái OpenXLA có sẵn cho cộng đồng tham gia, đóng góp và sử dụng nhiều hơn nữa trên GitHub.” – Andy Hock, Phó chủ tịch kiêm Giám đốc sản phẩm, Cerebras Systems

Biểu trưng Google

Google

"Phần mềm nguồn mở mang đến cho mọi người cơ hội góp phần tạo ra những bước đột phá về trí tuệ nhân tạo (AI). Tại Google, chúng tôi đang hợp tác Dự án OpenXLA để tiếp tục thực hiện cam kết về nguồn mở và thúc đẩy việc áp dụng công cụ AI (trí tuệ nhân tạo) nâng cao tiêu chuẩn về hiệu suất học máy, giải quyết trường hợp không tương thích giữa khung và phần cứng, đồng thời có thể định cấu hình lại để giải quyết các trường hợp sử dụng phù hợp với nhà phát triển. Chúng tôi rất vui khi được phát triển những công cụ này với cộng đồng OpenXLA để các nhà phát triển có thể thúc đẩy sự tiến bộ trên nhiều lớp khác nhau của ngăn xếp AI." – Jeff Dean, Nghiên cứu viên cấp cao kiêm Phó chủ tịch cấp cao tại Google Nghiên cứu và AI (trí tuệ nhân tạo)

Biểu trưng Graphcore

Đồ thị

"Quy trình biên dịch IPU của chúng tôi sử dụng XLA từ khi chúng được công khai. Nhờ sự độc lập và ổn định của nền tảng XLA, XLA cung cấp giao diện người dùng lý tưởng để sử dụng silicon mới. Sự linh hoạt của XLA cho phép chúng tôi triển khai các tính năng phần cứng mới của IPU và đạt được hiệu suất hiện đại bằng nhiều khung. Hàng triệu truy vấn mỗi ngày được các hệ thống chạy mã do XLA biên dịch. Chúng tôi rất hào hứng với định hướng của OpenXLA và hy vọng có thể tiếp tục đóng góp cho dự án nguồn mở này. Chúng tôi tin rằng API này sẽ trở thành một thành phần cốt lõi trong tương lai của công nghệ trí tuệ nhân tạo/học máy.” – David Norman, Giám đốc thiết kế phần mềm, Graphcore

Biểu trưng của Hugging Face

Cho ôm cái

“Giúp dễ dàng vận hành hiệu quả bất kỳ mô hình nào trên mọi phần cứng là một thách thức kỹ thuật sâu sắc và là mục tiêu quan trọng cho sứ mệnh của chúng tôi là dân chủ hoá công nghệ học máy hiệu quả. Tại Hugging Face, chúng tôi đã bật XLA cho các mô hình tạo văn bản TensorFlow và đạt được tốc độ tăng khoảng 100 lần. Hơn nữa, chúng tôi hợp tác chặt chẽ với các nhóm kỹ thuật tại Intel, AWS, Habana, Graphcore, AMD, Qualcomm và Google, xây dựng cầu nối nguồn mở giữa các khung và mỗi silicon, nhằm cung cấp hiệu quả vượt trội cho người dùng cuối thông qua thư viện Optimum của chúng tôi. OpenXLA hứa hẹn với các khối xây dựng tiêu chuẩn để chúng tôi có thể xây dựng khả năng tương tác cần thiết và chúng tôi rất háo hức theo dõi và đóng góp!"

Biểu trưng Intel

Intel

"Tại Intel, chúng tôi tin tưởng vào quyền tiếp cận tự do và dân chủ cho AI. CPU Intel, GPU, máy tăng tốc Habana Gaudi và phần mềm trí tuệ nhân tạo sử dụng mộtAPI (bao gồm cả OpenVINO) giúp thúc đẩy khối lượng công việc học máy ở mọi nơi, từ siêu máy tính exascale cho đến các quy trình triển khai lớn trên đám mây. Cùng với các thành viên khác của OpenXLA, chúng tôi tìm cách hỗ trợ các công cụ biên dịch máy học dựa trên tiêu chuẩn và được hợp thành phần, giúp thúc đẩy quá trình đổi mới trên nhiều khung và môi trường phần cứng, qua đó đẩy nhanh quá trình nghiên cứu và khoa học đang thay đổi trên thế giới.”

Biểu trưng Meta

Meta

"Trong nghiên cứu, tại Meta AI, chúng tôi đã sử dụng XLA, một công nghệ cốt lõi của dự án OpenXLA, để hỗ trợ các mô hình PyTorch cho Cloud TPU và có thể cải thiện đáng kể hiệu suất cho các dự án quan trọng. Chúng tôi tin rằng mã nguồn mở thúc đẩy tốc độ đổi mới trên thế giới và chúng tôi rất vui mừng được tham gia Dự án OpenXLA.” – Soumith Chintala, Giám đốc bảo trì, PyTorch

Biểu trưng NVIDIA

NVIDIA

"Là một thành viên sáng lập của Dự án OpenXLA, NVIDIA rất mong được hợp tác với cộng đồng OpenXLA trong việc thúc đẩy những tiến bộ về trí tuệ nhân tạo/học máy và tin rằng với sự tham gia và sử dụng rộng rãi OpenXLA, các nhà phát triển công nghệ học máy sẽ có được cơ sở hạ tầng AI hiện đại nhất." – Theo Giám đốc điều hành phần mềm Trình biên dịch, NVIDIA.