XLA

XLA (Accelerated Linear Algebra)는 머신러닝용 오픈소스 컴파일러입니다. XLA 컴파일러는 PyTorch, TensorFlow, JAX와 같이 널리 사용되는 프레임워크에서 모델을 가져와 GPU, CPU, ML 가속기 등 다양한 하드웨어 플랫폼에서 고성능 실행을 위해 모델을 최적화합니다. 예를 들어 BERT MLPerf 제출에서 8개의 Volta V100 GPU와 함께 XLA를 사용하면 XLA가 없는 동일한 GPU에 비해 약 7배의 성능과 최대 5배의 배치 크기 개선을 달성했습니다.

XLA는 OpenXLA 프로젝트의 일환으로 Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta, NVIDIA 등 업계 최고의 ML 하드웨어 및 소프트웨어 업체들이 공동으로 빌드했습니다.

주요 장점

  • 어디서나 빌드: XLA는 이미 TensorFlow, PyTorch, JAX와 같은 주요 ML 프레임워크에 통합되어 있습니다.

  • 어디서나 실행: GPU, CPU, ML 가속기 등 다양한 백엔드를 지원하며 추가 지원을 위한 플러그형 인프라를 포함합니다.

  • 성능 극대화 및 확장: 프로덕션 테스트를 거친 최적화 통과와 모델 동시 로드를 위한 자동 파티션 나누기를 통해 모델의 성능을 최적화합니다.

  • 복잡성 제거: MLIR의 강력한 기능을 활용하여 단일 컴파일러 도구 모음에 최상의 기능을 포함하므로 다양한 도메인별 컴파일러를 관리할 필요가 없습니다.

  • 미래에 대비: XLA는 주요 ML 하드웨어 및 소프트웨어 공급업체의 협업을 통해 구축된 오픈소스 프로젝트로, 최첨단 ML 업계에서 작동하도록 설계되었습니다.

문서

XLA에 관한 자세한 내용은 아래 가이드를 확인하세요. 신규 XLA 개발자라면 XLA 아키텍처로 시작한 다음 코드 검토를 읽어보는 것이 좋습니다.