Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
XLA (Accelerated Linear Algebra) es un compilador de código abierto para el aprendizaje automático. El compilador de XLA toma modelos de frameworks populares como PyTorch, TensorFlow y JAX, y los optimiza para su ejecución de alto rendimiento en diferentes plataformas de hardware, incluidas GPU, CPU y aceleradores de AA.
Por ejemplo, en un envío de MLPerf BERT, el uso de XLA con 8 GPU Volta V100 logró una mejora de rendimiento de alrededor de 7 veces y una mejora de tamaño de lote 5 veces mayor en comparación con las mismas GPU sin XLA.
Como parte del proyecto OpenXLA, las empresas de hardware y software de AA líderes del sector compilan XLA de forma colaborativa, como Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta y NVIDIA.
Beneficios clave
Compila en cualquier lugar: XLA ya está integrado en los frameworks líderes de AA, como TensorFlow, PyTorch y JAX.
Ejecuta en cualquier lugar: Admite varios backends, incluidos GPU, CPU y aceleradores de AA, y también incluye una infraestructura conectable para agregar compatibilidad con más.
Maximiza y escala el rendimiento: Optimiza el rendimiento de un modelo con pases de optimización probados en producción y particiones automatizadas para el paralelismo de modelos.
Eliminación de la complejidad: Aprovecha la potencia de MLIR para incorporar las mejores capacidades en una sola cadena de herramientas de compilador, por lo que no tienes que administrar varios compiladores específicos del dominio.
Listo para el futuro: Como proyecto de código abierto, creado mediante una colaboración de proveedores líderes de hardware y software de AA, XLA se diseñó con el objetivo de operar a la vanguardia de la industria del AA.
Documentación
Para obtener más información sobre XLA, consulta los vínculos de la izquierda. Si eres un desarrollador nuevo de XLA, te recomendamos comenzar con la arquitectura de XLA y, luego, leer Opiniones de códigos.