OpenXLA
다가오는 일정
OpenXLA 개발자 실험실 2024년 11월
XLA
정보
설치/사용
문서
PJRT
정보
커뮤니티
공지사항/토론
Discord
회의
YouTube
기여
업계 파트너
Alibaba
“Alibaba에서 OpenXLA는 Elastic GPU 서비스 고객이 대규모 PyTorch 모델의 학습과 서빙에 활용하는 데 활용되고 있습니다. OpenXLA를 사용하는 고객의 경우 성능이 크게 향상되었으며, 특히 NVIDIA GPU에서 GPT2의 경우 72%, Swin Transformer의 경우 88% 의 속도가 향상되었습니다. OpenXLA 프로젝트의 창립 멤버로서 오픈소스 커뮤니티와 협력하여 Alibaba Cloud 고객에게 우수한 성능과 사용자 경험을 제공하는 고급 ML 컴파일러를 개발하게 된 것을 자랑스럽게 생각합니다.” - 양칭 지아, Alibaba AI 및 데이터 분석 부문 부사장
Amazon Web Services
“OpenXLA 프로젝트의 창립 멤버로 활동하게 되어 기쁩니다. 이 프로젝트는 성능이 뛰어나고 확장 가능하며 확장 가능한 AI 인프라에 대한 액세스를 범용화하고 오픈소스 커뮤니티 내에서 추가적인 협업을 통해 혁신을 주도할 것입니다. AWS의 고객은 생성형 AI 애플리케이션을 AWS Trainium과 Inferentia를 통해 확장하고 Google의 Neuron SDK는 XLA를 사용하여 ML 모델을 고성능과 동급 와트당 성능으로 최적화합니다. 강력한 OpenXLA 생태계를 갖춘 개발자는 지속 가능한 ML 인프라를 통해 계속해서 혁신하고 뛰어난 성능을 제공할 수 있으며, 코드를 이식하여 원하는 하드웨어에서 사용할 수 있다는 사실을 확신할 수 있습니다.” - 나페아 브샤라, AWS 부사장 겸 특별 엔지니어
AMD
“광범위한 AMD 기기 제품군 (CPU, GPU, AIE)에서 향후 OpenXLA가 나아갈 방향에 대해 기쁘게 생각하며 이 커뮤니티의 일원이 된 것을 자랑스럽게 생각합니다. 당사는 개방형 거버넌스, 유연하고 광범위한 적용 가능성, 최첨단 기능, 최고의 성능을 갖춘 프로젝트를 중시하며, ML 개발자를 위한 오픈소스 생태계를 확장하기 위한 지속적인 협력이 기대됩니다.” - 앨런 리, AMD 소프트웨어 개발 부문 법인 부사장
모든 크기
"Anyscale은 AI 실무자가 애플리케이션을 더 빠르게 개발하고 더 많은 사용자에게 제공할 수 있도록 Ray와 같은 확장 가능한 개방형 기술을 개발합니다. 최근에는 OpenXLA를 사용하여 대규모 언어 모델에 대한 고성능 모델 학습을 보여주기 위해 ALPA 프로젝트와 협력했습니다. OpenXLA에 참여하게 된 것을 기쁘게 생각하며, 이러한 오픈소스 노력이 어떻게 다양한 하드웨어 플랫폼에서 AI 워크로드를 효율적으로 실행하여 진입 장벽을 낮추고 비용을 절감하며 AI 분야를 더 빠르게 발전시킬 수 있는지에 대한 기대가 큽니다." - 필립 모리츠, Anyscale CTO
사과
Apple Inc. 는 스마트폰, 개인용 컴퓨터, 태블릿, 웨어러블 및 액세서리를 디자인, 제조, 마케팅하고 다양한 관련 서비스를 판매합니다.
Arm
“OpenXLA 프로젝트는 ML 소프트웨어 개발을 간소화하는 데 있어 중요한 이정표입니다. 당사는 OpenXLA 임무를 완벽히 지원하고 있으며, Arm® NeoverseTM 하드웨어 및 소프트웨어 로드맵 전반에 걸쳐 OpenXLA 안정성과 표준화를 활용할 수 있을 것으로 기대합니다.” - 피터 그린할, 기술 부문 부사장 겸 Arm 연구원
뇌
"Cerebras는 대규모 AI 모델도 쉽고 빠르게 학습시킬 수 있도록 설계된 AI 가속기를 제작합니다. Google의 시스템과 소프트웨어는 사용자가 어디에 있든 요구사항을 충족할 수 있게 해주며, 표준 ML 프레임워크를 변경 없이 신속하게 개발, 확장, 반복할 수 있도록 지원합니다. OpenXLA는 Cerebras Wafer-Scale Engine에 더 높은 수준의 ML 프레임워크 공통 인터페이스를 제공하여 사용자 도달 범위를 확장하고 솔루션 도입 시간을 단축하도록 도와줍니다. GitHub에서 더욱 광범위한 커뮤니티 참여, 참여 및 사용을 지원하는 OpenXLA 생태계를 보게 되어 매우 기쁩니다.” - 앤디 호크, Cerebras Systems의 부사장 겸 제품 책임자
“오픈소스 소프트웨어는 AI 분야에서 혁신을 이루는 데 도움이 될 수 있는 기회를 모두에게 제공합니다. Google에서는 ML 성능 표준을 높이고, 프레임워크와 하드웨어 간의 비호환성을 해결하며, 개발자의 맞춤형 사용 사례를 해결하도록 재구성할 수 있는 오픈소스 및 AI 도구의 도입을 촉진하기 위해 OpenXLA 프로젝트를 함께 진행하고 있습니다. 개발자가 AI 스택의 다양한 레이어에서 발전을 주도할 수 있도록 OpenXLA 커뮤니티와 함께 이러한 도구를 개발하게 된 것을 기쁘게 생각합니다.” - 제프 딘, Google Research and AI 선임 연구원 겸 SVP
그래프코어
"당사의 IPU 컴파일러 파이프라인은 공개 출시된 이후 XLA를 사용해 왔습니다. XLA의 플랫폼 독립성과 안정성 덕분에 새로운 실리콘을 구현하는 데 이상적인 프런트엔드를 제공합니다. XLA의 유연성 덕분에 IPU의 새로운 하드웨어 기능을 노출하고 여러 프레임워크로 최신 성능을 달성할 수 있었습니다. XLA로 컴파일된 코드를 실행하는 시스템에서 매일 수백만 개의 쿼리를 처리합니다. 우리는 OpenXLA의 방향에 큰 기대를 걸고 있으며 오픈소스 프로젝트에 계속 기여할 수 있기를 바랍니다. AI/ML의 미래에 핵심적인 구성요소가 될 것이라고 믿습니다.” - 데이비드 노만, Graphcore 소프트웨어 디자인 부문 이사
Hugging Face
“모든 하드웨어에서 모델을 효율적으로 쉽게 실행할 수 있도록 하는 것은 심각한 기술적 과제이며 우수한 머신러닝의 범용화라는 사명에 중요한 목표이기도 합니다. Hugging Face에서는 TensorFlow 텍스트 생성 모델에 XLA를 사용할 수 있었고, 속도가 최대 100배까지 향상되었습니다. 또한 Intel, AWS, Habana, Graphcore, AMD, Qualcomm 및 Google의 엔지니어링팀과 긴밀하게 협업하여 프레임워크와 각 실리콘 간에 오픈소스 브리지를 구축하여 Optimum 라이브러리를 통해 최종 사용자에게 즉시 사용 가능한 효율성을 제공합니다. OpenXLA는 우리가 많이 필요로 하는 상호 운용성을 구축할 수 있는 표준화된 빌딩 블록을 약속합니다. 우리는 이를 따라 가고 기여하고 싶습니다!” - Morgan Funtowicz, Hugging Face 머신러닝 최적화 책임자
인텔
“Intel은 AI에 대한 액세스의 민주화가 일반화되어야 한다고 믿습니다. Intel CPU, GPU, Habana Gaudi 가속기, OpenVINO를 비롯한 oneAPI 기반 AI 소프트웨어가 엑사스케일 슈퍼컴퓨터부터 주요 클라우드 배포에 이르는 모든 곳에서 ML 워크로드를 구동합니다. Google은 다른 OpenXLA 회원사와 함께 여러 프레임워크 및 하드웨어 환경에서 혁신을 주도하는 표준 기반의 구성요소화된 ML 컴파일러 도구를 지원하여 세상을 바꾸는 과학 및 연구를 가속화하고자 합니다.” - 그렉 라벤더, 소프트웨어 및 고급 기술 그룹의 Intel SVP, CTO 및 GM
Meta
“연구에서 Meta AI에서는 OpenXLA 프로젝트의 핵심 기술인 XLA를 사용해 Cloud TPU용 PyTorch 모델을 지원하고 중요한 프로젝트에서 상당한 성능 향상을 달성할 수 있었습니다. 오픈소스가 전 세계의 혁신 속도를 가속화한다고 믿으며, OpenXLA 프로젝트에 참여하게 되어 기쁩니다.” - 수미트 친탈라, PyTorch 리드 유지관리자
NVIDIA
“OpenXLA 프로젝트의 창립 멤버인 NVIDIA는 OpenXLA 커뮤니티와 AI/ML 발전을 위해 협업할 것을 기대하며, OpenXLA의 폭넓은 참여와 채택을 통해 ML 개발자들이 최신 AI 인프라로 역량을 강화할 수 있을 것이라 확신합니다.” - 로저 브링만, NVIDIA 컴파일러 소프트웨어 부문 부사장