Un ecosistema abierto de componentes de infraestructura de aprendizaje automático (AA) de alto rendimiento, portátiles y extensibles que simplifican el desarrollo del AA mediante la desfragmentación de las herramientas entre frameworks de frontend y backends de hardware. Creado por líderes de la industria en modelado de IA, software y hardware.
Reunión comunitaria del 17/12/2024 a las 9 a.m. (hora del Pacífico)
Nuestro próximo Dev Lab se llevará a cabo el 14 de noviembre en Sunnyvale, California.

XLA

XLA (Accelerated Linear Algebra) es un compilador de código abierto para el aprendizaje automático. El compilador de XLA toma modelos de frameworks populares como PyTorch, TensorFlow y JAX, y los optimiza para su ejecución de alto rendimiento en diferentes plataformas de hardware, incluidas GPU, CPU y aceleradores de AA.
XLA viene compilado previamente para muchos frameworks de AA. Si deseas obtener información para usar XLA en estos casos, consulta la documentación y las páginas del framework individual.
La documentación de XLA abarca una serie de temas básicos y avanzados, por ejemplo, cómo integrar un nuevo complemento de PJRT, implementar un nuevo backend de XLA y optimizar el tiempo de ejecución del programa de XLA.

StableHLO

StableHLO es un conjunto de operaciones para operaciones de alto nivel (HLO) en modelos de aprendizaje automático (AA). Básicamente, es una capa de portabilidad entre diferentes frameworks de AA y compiladores de AA: los frameworks de AA que producen programas StableHLO son compatibles con los compiladores de AA que consumen programas StableHLO.
En la documentación de StableHLO, se abordan varios temas, como la especificación del OpSet de StableHLO y cómo exportar gráficos de StableHLO desde frameworks de AA comunes.

Shardy

Shardy es un sistema de partición de tensores basado en MLIR para todos los dialectos. Creado a partir de la colaboración de los equipos de GSPMD y PartIR, incorpora lo mejor de ambos sistemas y la experiencia compartida de los equipos y los usuarios.
La documentación de Shardy abarca los conceptos de fragmentación, una descripción general del dialecto y los instructivos de introducción para usar Shardy desde JAX o integrarlo en una canalización de MLIR personalizada.

PJRT

PJRT es una interfaz independiente de hardware y framework para compiladores y entornos de ejecución de AA. Actualmente, se incluye en la distribución de XLA. Consulta el GitHub de XLA y la documentación para obtener más información sobre cómo integrar y usar PJRT.

Comunidad

Únete a la lista de distribución de OpenXla-Discuss para recibir noticias sobre lanzamientos, eventos y otras actualizaciones importantes. Este es también nuestro canal principal para debates sobre diseño y desarrollo.
Únete a OpenXLA Discord para participar en chats sobre temas de XLA y StableHLO.
Las reuniones se realizan mensualmente a través de Google Meet el 2o o 3er martes a las 9 a.m. PT. Consulten el documento de la reunión o el debate de openxla para conocer fechas y temas específicos.
Mantente al tanto de las noticias y los anuncios más recientes de la comunidad de OpenXLA.
Agradecemos las contribuciones de la comunidad. Para obtener más información, consulta nuestros lineamientos sobre contribuciones.

Socios de la industria

El proyecto OpenXLA se desarrolló de forma colaborativa por organizaciones líderes en hardware y software de AA.
Logotipo de Alibaba

Alibaba

“En Alibaba, los clientes de Elastic GPU Service aprovechan OpenXLA para entrenar y entregar modelos grandes de PyTorch. Observamos mejoras importantes en el rendimiento para los clientes que usan OpenXLA, en particular una aceleración del 72% para GPT2 y del 88% para Swin Transformer en las GPU de NVIDIA. Nos enorgullece ser miembros fundadores del proyecto OpenXLA y trabajar con la comunidad de código abierto para desarrollar un compilador de AA avanzado que brinda un rendimiento y una experiencia del usuario superiores a los clientes de Alibaba Cloud”. - Yangqing Jia, vicepresidente de IA y Análisis de Datos de Alibaba

Logotipo de Amazon Web Services

Amazon Web Services

“Nos complace ser un miembro fundador del proyecto OpenXLA, que democratizará el acceso a una infraestructura de IA extensible, escalable y de buen rendimiento, además de una mayor colaboración dentro de la comunidad de código abierto para impulsar la innovación. En AWS, nuestros clientes escalan sus aplicaciones de IA generativa en Inferentia y Trainium de AWS, y nuestro SDK de Neuron se basa en XLA para optimizar los modelos de AA a fin de obtener un alto rendimiento y el mejor rendimiento por vatio. Con un ecosistema de OpenXLA sólido, los desarrolladores pueden seguir innovando y brindando un gran rendimiento con una infraestructura de AA sustentable, y saben que su código es portátil para usar en el hardware que prefieran”. Nafea Bshara, vicepresidente e ingeniero distinguido de AWS

Logotipo de AMD

AMD

“Nos entusiasma el futuro de OpenXLA en la amplia familia de dispositivos AMD (CPU, GPU, AIE) y nos enorgullece formar parte de esta comunidad. Valoramos los proyectos con gobernanza abierta, flexibilidad y aplicabilidad amplia, funciones de vanguardia y rendimiento de primer nivel, y esperamos con ansias la colaboración continua para expandir el ecosistema de código abierto para los desarrolladores de AA". Alan Lee, vicepresidente corporativo de Desarrollo de Software, AMD

Logotipo de Anyscale

Cualquier escala

“Anyscale desarrolla tecnologías abiertas y escalables como Ray para ayudar a los profesionales de la IA a desarrollar sus aplicaciones con mayor rapidez y ponerlas a disposición de más usuarios. Recientemente, nos asociamos con el proyecto ALPA para usar OpenXLA con el objetivo de mostrar el entrenamiento de modelos de alto rendimiento para modelos grandes de lenguaje a gran escala. Nos complace participar en OpenXLA y nos entusiasma la forma en que este esfuerzo de código abierto permite ejecutar cargas de trabajo de IA en una variedad más amplia de plataformas de hardware de manera eficiente, lo que reduce la barrera de entrada, reduce los costos y avanza más rápido en el campo de la IA”. - Philipp Moritz, director de tecnología, Anyscale

Logotipo de Apple

Una manzana

Apple Inc. diseña, fabrica y comercializa smartphones, computadoras personales, tablets, wearables y accesorios, y vende una variedad de servicios relacionados.

Logotipo de Arm

Arm

“El proyecto OpenXLA marca un hito importante en el camino para simplificar el desarrollo de software de AA. Apoyamos plenamente la misión de OpenXLA y esperamos aprovechar la estabilidad y estandarización de OpenXLA en las hojas de ruta de hardware y software Arm® NeoverseTM". Peter Greenhalgh, vicepresidente de Tecnología y Miembro de Arm.

Logotipo de Cerebras

Cerebras

“En Cerebras, creamos aceleradores de IA diseñados para que el entrenamiento incluso de los modelos de IA más grandes sea rápido y sencillo. Nuestros sistemas y software se ajustan a los usuarios dondequiera que estén: permiten un desarrollo, iteración y escalamiento rápidos con frameworks de AA estándar sin cambios. OpenXLA ayuda a extender nuestro alcance de usuarios y acelerar el tiempo de solución, ya que proporciona al motor de escala Wafer Cerebras con una interfaz común para los frameworks de AA de mayor nivel. Nos entusiasma enormemente ver que el ecosistema de OpenXLA está disponible para una mayor participación, contribución y uso de la comunidad en GitHub”. - Andy Hock, vicepresidente y director de Producto, Cerebras Systems

Logotipo de Google

Servicios

"El software de código abierto brinda a todas las personas la oportunidad de ayudar a crear avances en IA. En Google, colaboramos en el proyecto OpenXLA para ampliar nuestro compromiso con el código abierto y fomentar la adopción de herramientas de IA que elevan el estándar para el rendimiento del AA, aborda las incompatibilidades entre frameworks y hardware, y se reconfigura para abordar los casos de uso personalizados de los desarrolladores. Nos entusiasma desarrollar estas herramientas con la comunidad de OpenXLA para que los desarrolladores puedan impulsar avances en muchas capas diferentes de la pila de IA". - Jeff Dean, socio sénior y vicepresidente sénior de Google Research e IA

Logotipo de Graphcore

Graphcore

“Nuestra canalización del compilador de IPU ha usado XLA desde que se hizo público. Gracias a la independencia y estabilidad de la plataforma de XLA, proporciona un frontend ideal para usar un sistema novedoso de silicio. La flexibilidad de XLA nos permitió exponer las novedosas funciones de hardware de nuestra IPU y lograr un rendimiento de vanguardia con múltiples marcos de trabajo. Millones de consultas diarias son atendidas por sistemas que ejecutan código compilado por XLA. Nos entusiasma la dirección de OpenXLA y esperamos seguir contribuyendo al proyecto de código abierto. Creemos que formará un componente fundamental en el futuro de la IA y el AA". - David Norman, director de Diseño de Software, Graphcore

Logotipo de cara abrazada

Hugging Face

"Facilitar la ejecución eficiente de cualquier modelo en cualquier hardware es un gran desafío técnico y un objetivo importante para nuestra misión de democratizar el buen aprendizaje automático. En Hugging Face, habilitamos XLA para los modelos de generación de texto de TensorFlow y logramos velocidades de alrededor de 100 veces más rápidas. Además, colaboramos estrechamente con equipos de ingeniería de Intel, AWS, Habana, Graphcore, AMD, Qualcomm y Google, creando puentes de código abierto entre frameworks y cada silicio, para ofrecer eficiencia lista para usar a los usuarios finales a través de nuestra biblioteca Optimum. OpenXLA promete los componentes básicos estandarizados sobre los que podemos desarrollar la interoperabilidad tan necesaria, y estamos ansiosos por seguir y contribuir". Morgan Funtowicz, directora de Optimización del Aprendizaje Automático, Hugging Face

Logotipo de Intel

Intel

“En Intel, creemos en el acceso abierto y democratizado a la IA. Las CPU Intel, las GPU, los aceleradores Habana Gaudi y el software de IA con tecnología de OneAPI, incluido OpenVINO, impulsan cargas de trabajo de AA en todas partes, desde supercomputadoras a exaescala hasta implementaciones importantes en la nube. Junto con otros miembros de OpenXLA, buscamos respaldar herramientas de compilación de AA basadas en estándares que impulsen la innovación en múltiples frameworks y entornos de hardware para acelerar la investigación y la ciencia que cambian el mundo”. Greg Lavender, vicepresidente sénior de Intel, director de tecnología y gerente general del Grupo de Software y Tecnología Avanzada

Logotipo de Meta

Meta

“En las investigaciones, en Meta AI, usamos XLA, una tecnología central del proyecto OpenXLA, para habilitar los modelos PyTorch para Cloud TPU y pudimos lograr mejoras de rendimiento significativas en proyectos importantes. Creemos que el código abierto acelera el ritmo de innovación en el mundo y nos entusiasma formar parte del proyecto OpenXLA". - Soumith Chintala, encargado de mantenimiento líder, PyTorch

Logotipo de NVIDIA

NVIDIA

“Como miembro fundador del proyecto OpenXLA, NVIDIA espera colaborar en los avances de IA y AA con la comunidad de OpenXLA. Además, está positivo de que, con una mayor participación y adopción de OpenXLA, los desarrolladores de AA tendrán la infraestructura de IA de vanguardia”. Roger Bringmann, vicepresidente de Software de compilación de NVIDIA.

Contacto

Si tienes preguntas directas, comunícate con los encargados de mantenimiento de openxla.org.