XLA (Accelerated Linear Algebra) es un compilador de código abierto para el aprendizaje automático. El compilador XLA toma modelos de frameworks populares, como PyTorch, TensorFlow y JAX, y los optimiza para la ejecución de alto rendimiento en diferentes plataformas de hardware, incluidas GPUs, CPUs y aceleradores de AA.
Como parte del proyecto OpenXLA, XLA se compila de forma colaborativa por parte de las empresas de hardware y software de IA líderes en la industria, como Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta y NVIDIA.
Ventajas clave
Compila en cualquier lugar: XLA ya está integrado en los frameworks de AA líderes, como TensorFlow, PyTorch y JAX.
Ejecución en cualquier lugar: Admite varios backends, como GPUs, CPUs y aceleradores de AA, y también incluye una infraestructura que se puede conectar para admitir más.
Maximiza y escala el rendimiento: Optimiza el rendimiento de un modelo con pases de optimización probados en producción y particiones automatizadas para el paralelismo de modelos.
Elimina la complejidad: Aprovecha la potencia de MLIR para ofrecer las mejores funciones en una sola cadena de herramientas de compilación, de modo que no tengas que administrar una variedad de compiladores específicos del dominio.
Listo para el futuro: Como proyecto de código abierto, creado a través de una colaboración de proveedores líderes de hardware y software de AA, XLA está diseñado para operar en la vanguardia de la industria del AA.
Documentación
Para obtener más información sobre XLA, consulta los vínculos de la izquierda. Si eres un desarrollador de XLA nuevo, te recomendamos que comiences con la arquitectura de XLA y, luego, leas Cómo contribuir.