이동성이 우수하고 확장 가능한 머신러닝 (ML) 인프라 구성요소의 개방형 생태계로, 프런트엔드 프레임워크와 하드웨어 백엔드 간의 도구를 조각 모음하여 ML 개발을 간소화합니다. AI 모델링, 소프트웨어, 하드웨어 분야의 업계 리더들이 빌드했습니다.
커뮤니티 미팅 2024년 12월 17일 오전 9시(PT)
가을 개발자 실험실의 슬라이드와 녹화본을 사용할 수 있습니다.

XLA

XLA (Accelerated Linear Algebra)는 머신러닝용 오픈소스 컴파일러입니다. XLA 컴파일러는 PyTorch, TensorFlow, JAX와 같이 널리 사용되는 프레임워크에서 모델을 가져와 GPU, CPU, ML 가속기와 같은 다양한 하드웨어 플랫폼에서 고성능 실행을 위해 모델을 최적화합니다.
XLA는 여러 ML 프레임워크용으로 사전 빌드되어 있습니다. 이러한 경우에 XLA를 사용하는 방법에 대한 자세한 내용은 문서 및 개별 프레임워크 페이지를 참조하세요.
XLA 문서는 새 PJRT 플러그인을 통합하고 새 XLA 백엔드를 구현하며 XLA 프로그램 런타임을 최적화하는 방법과 같은 여러 기본 및 고급 주제를 다룹니다.

StableHLO

StableHLO는 머신러닝 (ML) 모델의 상위 수준 작업 (HLO)을 위한 작업 세트입니다. 기본적으로 여러 ML 프레임워크와 ML 컴파일러 간의 이동성 레이어입니다. StableHLO 프로그램을 생성하는 ML 프레임워크는 StableHLO 프로그램을 사용하는 ML 컴파일러와 호환됩니다.
StableHLO 문서에서는 StableHLO OpSet의 사양, 일반적인 ML 프레임워크에서 StableHLO 그래프를 내보내는 방법 등 다양한 주제를 다룹니다.

Shardy

Shardy는 모든 언어를 위한 MLIR 기반 텐서 파티셔닝 시스템입니다. GSPMD팀과 PartIR팀의 공동작업으로 구축된 이 시스템은 두 시스템의 장점과 팀 및 사용자의 공유 경험을 통합합니다.
Shardy 문서에서는 샤딩 개념, 방언 개요, JAX에서 Shardy를 사용하거나 Shardy를 맞춤 MLIR 파이프라인에 통합하는 방법에 관한 시작 튜토리얼을 다룹니다.

PJRT

PJRT는 ML 컴파일러 및 런타임을 위한 하드웨어 및 프레임워크 독립적 인터페이스입니다. 현재 XLA 배포에 포함되어 있습니다. PJRT 사용 및 통합 방법에 대한 자세한 내용은 XLA GitHub 및 문서를 참조하세요.

커뮤니티

openxla-discuss 메일링 리스트에 가입하면 릴리스, 이벤트 및 기타 주요 업데이트에 대한 뉴스를 받아볼 수 있습니다. 또한 디자인 및 개발에 대한 논의를 진행하는 기본 채널이기도 합니다.
OpenXLA Discord에 가입하여 XLA 및 StableHLO 주제에 관한 채팅에 참여하세요.
회의는 매월 두 번째 또는 세 번째 화요일 오전 9시(PT)에 Google Meet을 통해 진행됩니다. 특정 날짜 및 주제에 대해서는 회의 문서 또는 openxla-discuss를 참고하세요.
OpenXLA 커뮤니티의 최신 소식과 공지사항을 확인하세요.
Google은 커뮤니티의 참여를 환영합니다. 자세한 내용은 Google의 참여 가이드라인을 참조하세요.

업계 파트너

OpenXLA 프로젝트는 선도적인 ML 하드웨어 및 소프트웨어 조직이 공동으로 개발했습니다.
Alibaba 로고

Alibaba

“Alibaba에서 OpenXLA는 Elastic GPU 서비스 고객이 대규모 PyTorch 모델의 학습과 서빙에 활용하는 데 활용되고 있습니다. OpenXLA를 사용하는 고객의 경우 성능이 크게 향상되었으며, 특히 NVIDIA GPU에서 GPT2의 경우 72%, Swin Transformer의 경우 88% 의 속도가 향상되었습니다. OpenXLA 프로젝트의 창립 멤버로서 오픈소스 커뮤니티와 협력하여 Alibaba Cloud 고객에게 우수한 성능과 사용자 경험을 제공하는 고급 ML 컴파일러를 개발하게 된 것을 자랑스럽게 생각합니다.” - 양칭 지아, Alibaba AI 및 데이터 분석 부문 부사장

Amazon Web Services 로고

Amazon Web Services

“OpenXLA 프로젝트의 창립 멤버로 활동하게 되어 기쁩니다. 이 프로젝트는 성능이 뛰어나고 확장 가능하며 확장 가능한 AI 인프라에 대한 액세스를 범용화하고 오픈소스 커뮤니티 내에서 추가적인 협업을 통해 혁신을 주도할 것입니다. AWS의 고객은 생성형 AI 애플리케이션을 AWS Trainium과 Inferentia를 통해 확장하고 Google의 Neuron SDK는 XLA를 사용하여 ML 모델을 고성능과 동급 와트당 성능으로 최적화합니다. 강력한 OpenXLA 생태계를 갖춘 개발자는 지속 가능한 ML 인프라를 통해 계속해서 혁신하고 뛰어난 성능을 제공할 수 있으며, 코드를 이식하여 원하는 하드웨어에서 사용할 수 있다는 사실을 확신할 수 있습니다.” - 나페아 브샤라, AWS 부사장 겸 특별 엔지니어

AMD 로고

AMD

“광범위한 AMD 기기 제품군 (CPU, GPU, AIE)에서 향후 OpenXLA가 나아갈 방향에 대해 기쁘게 생각하며 이 커뮤니티의 일원이 된 것을 자랑스럽게 생각합니다. 당사는 개방형 거버넌스, 유연하고 광범위한 적용 가능성, 최첨단 기능, 최고의 성능을 갖춘 프로젝트를 중시하며, ML 개발자를 위한 오픈소스 생태계를 확장하기 위한 지속적인 협력이 기대됩니다.” - 앨런 리, AMD 소프트웨어 개발 부문 법인 부사장

Anyscale 로고

모든 크기

"Anyscale은 AI 실무자가 애플리케이션을 더 빠르게 개발하고 더 많은 사용자에게 제공할 수 있도록 Ray와 같은 확장 가능한 개방형 기술을 개발합니다. 최근에는 OpenXLA를 사용하여 대규모 언어 모델에 대한 고성능 모델 학습을 보여주기 위해 ALPA 프로젝트와 협력했습니다. OpenXLA에 참여하게 된 것을 기쁘게 생각하며, 이러한 오픈소스 노력이 어떻게 다양한 하드웨어 플랫폼에서 AI 워크로드를 효율적으로 실행하여 진입 장벽을 낮추고 비용을 절감하며 AI 분야를 더 빠르게 발전시킬 수 있는지에 대한 기대가 큽니다." - 필립 모리츠, Anyscale CTO

Apple 로고

사과

Apple Inc. 는 스마트폰, 개인용 컴퓨터, 태블릿, 웨어러블 및 액세서리를 디자인, 제조, 마케팅하고 다양한 관련 서비스를 판매합니다.

ARM 로고

Arm

“OpenXLA 프로젝트는 ML 소프트웨어 개발을 간소화하는 데 있어 중요한 이정표입니다. 당사는 OpenXLA 임무를 완벽히 지원하고 있으며, Arm® NeoverseTM 하드웨어 및 소프트웨어 로드맵 전반에 걸쳐 OpenXLA 안정성과 표준화를 활용할 수 있을 것으로 기대합니다.” - 피터 그린할, 기술 부문 부사장 겸 Arm 연구원

Cerebras 로고

"Cerebras는 대규모 AI 모델도 쉽고 빠르게 학습시킬 수 있도록 설계된 AI 가속기를 제작합니다. Google의 시스템과 소프트웨어는 사용자가 어디에 있든 요구사항을 충족할 수 있게 해주며, 표준 ML 프레임워크를 변경 없이 신속하게 개발, 확장, 반복할 수 있도록 지원합니다. OpenXLA는 Cerebras Wafer-Scale Engine에 더 높은 수준의 ML 프레임워크 공통 인터페이스를 제공하여 사용자 도달 범위를 확장하고 솔루션 도입 시간을 단축하도록 도와줍니다. GitHub에서 더욱 광범위한 커뮤니티 참여, 참여 및 사용을 지원하는 OpenXLA 생태계를 보게 되어 매우 기쁩니다.” - 앤디 호크, Cerebras Systems의 부사장 겸 제품 책임자

Google 로고

Google

“오픈소스 소프트웨어는 AI 분야에서 혁신을 이루는 데 도움이 될 수 있는 기회를 모두에게 제공합니다. Google에서는 ML 성능 표준을 높이고, 프레임워크와 하드웨어 간의 비호환성을 해결하며, 개발자의 맞춤형 사용 사례를 해결하도록 재구성할 수 있는 오픈소스 및 AI 도구의 도입을 촉진하기 위해 OpenXLA 프로젝트를 함께 진행하고 있습니다. 개발자가 AI 스택의 다양한 레이어에서 발전을 주도할 수 있도록 OpenXLA 커뮤니티와 함께 이러한 도구를 개발하게 된 것을 기쁘게 생각합니다.” - 제프 딘, Google Research and AI 선임 연구원 겸 SVP

Graphcore 로고

그래프코어

"당사의 IPU 컴파일러 파이프라인은 공개 출시된 이후 XLA를 사용해 왔습니다. XLA의 플랫폼 독립성과 안정성 덕분에 새로운 실리콘을 구현하는 데 이상적인 프런트엔드를 제공합니다. XLA의 유연성 덕분에 IPU의 새로운 하드웨어 기능을 노출하고 여러 프레임워크로 최신 성능을 달성할 수 있었습니다. XLA로 컴파일된 코드를 실행하는 시스템에서 매일 수백만 개의 쿼리를 처리합니다. 우리는 OpenXLA의 방향에 큰 기대를 걸고 있으며 오픈소스 프로젝트에 계속 기여할 수 있기를 바랍니다. AI/ML의 미래에 핵심적인 구성요소가 될 것이라고 믿습니다.” - 데이비드 노만, Graphcore 소프트웨어 디자인 부문 이사

허깅하는 얼굴 로고

Hugging Face

“모든 하드웨어에서 모델을 효율적으로 쉽게 실행할 수 있도록 하는 것은 심각한 기술적 과제이며 우수한 머신러닝의 범용화라는 사명에 중요한 목표이기도 합니다. Hugging Face에서는 TensorFlow 텍스트 생성 모델에 XLA를 사용할 수 있었고, 속도가 최대 100배까지 향상되었습니다. 또한 Intel, AWS, Habana, Graphcore, AMD, Qualcomm 및 Google의 엔지니어링팀과 긴밀하게 협업하여 프레임워크와 각 실리콘 간에 오픈소스 브리지를 구축하여 Optimum 라이브러리를 통해 최종 사용자에게 즉시 사용 가능한 효율성을 제공합니다. OpenXLA는 우리가 많이 필요로 하는 상호 운용성을 구축할 수 있는 표준화된 빌딩 블록을 약속합니다. 우리는 이를 따라 가고 기여하고 싶습니다!” - Morgan Funtowicz, Hugging Face 머신러닝 최적화 책임자

Intel 로고

인텔

“Intel은 AI에 대한 액세스의 민주화가 일반화되어야 한다고 믿습니다. Intel CPU, GPU, Habana Gaudi 가속기, OpenVINO를 비롯한 oneAPI 기반 AI 소프트웨어가 엑사스케일 슈퍼컴퓨터부터 주요 클라우드 배포에 이르는 모든 곳에서 ML 워크로드를 구동합니다. Google은 다른 OpenXLA 회원사와 함께 여러 프레임워크 및 하드웨어 환경에서 혁신을 주도하는 표준 기반의 구성요소화된 ML 컴파일러 도구를 지원하여 세상을 바꾸는 과학 및 연구를 가속화하고자 합니다.” - 그렉 라벤더, 소프트웨어 및 고급 기술 그룹의 Intel SVP, CTO 및 GM

메타 로고

Meta

“연구에서 Meta AI에서는 OpenXLA 프로젝트의 핵심 기술인 XLA를 사용해 Cloud TPU용 PyTorch 모델을 지원하고 중요한 프로젝트에서 상당한 성능 향상을 달성할 수 있었습니다. 오픈소스가 전 세계의 혁신 속도를 가속화한다고 믿으며, OpenXLA 프로젝트에 참여하게 되어 기쁩니다.” - 수미트 친탈라, PyTorch 리드 유지관리자

NVIDIA 로고

NVIDIA

“OpenXLA 프로젝트의 창립 멤버인 NVIDIA는 OpenXLA 커뮤니티와 AI/ML 발전을 위해 협업할 것을 기대하며, OpenXLA의 폭넓은 참여와 채택을 통해 ML 개발자들이 최신 AI 인프라로 역량을 강화할 수 있을 것이라 확신합니다.” - 로저 브링만, NVIDIA 컴파일러 소프트웨어 부문 부사장

Contact

직접적인 질문이 있는 경우 openxla.org의 유지관리 담당자(유지관리 담당자)에게 문의하시기 바랍니다.