OpenXLA
Próximos eventos
OpenXLA Dev Lab, abril de 2024
XLA
Acerca de
Instalación/Uso
Documentación
StableHLO
Acerca de
Documentación
PJRT
Acerca de
Comunidad
Anuncios y debates
Discord
Reuniones
Contribuyendo
Socios de la industria
Alibaba
“En Alibaba, los clientes de Elastic GPU Service aprovechan OpenXLA para entrenar y entregar modelos grandes de PyTorch. Observamos mejoras importantes en el rendimiento para los clientes que usan OpenXLA, en particular una aceleración del 72% para GPT2 y del 88% para Swin Transformer en las GPU de NVIDIA. Nos enorgullece ser miembros fundadores del proyecto OpenXLA y trabajar con la comunidad de código abierto para desarrollar un compilador de AA avanzado que brinda un rendimiento y una experiencia del usuario superiores a los clientes de Alibaba Cloud”. - Yangqing Jia, vicepresidente de IA y Análisis de Datos de Alibaba
Amazon Web Services
“Nos complace ser un miembro fundador del proyecto OpenXLA, que democratizará el acceso a una infraestructura de IA extensible, escalable y de buen rendimiento, además de una mayor colaboración dentro de la comunidad de código abierto para impulsar la innovación. En AWS, nuestros clientes escalan sus aplicaciones de IA generativa en Inferentia y Trainium de AWS, y nuestro SDK de Neuron se basa en XLA para optimizar los modelos de AA a fin de obtener un alto rendimiento y el mejor rendimiento por vatio. Con un ecosistema de OpenXLA sólido, los desarrolladores pueden seguir innovando y brindando un gran rendimiento con una infraestructura de AA sustentable, y saben que su código es portátil para usar en el hardware que prefieran”. Nafea Bshara, vicepresidente e ingeniero distinguido de AWS
AMD
“Nos entusiasma el futuro de OpenXLA en la amplia familia de dispositivos AMD (CPU, GPU, AIE) y nos enorgullece formar parte de esta comunidad. Valoramos los proyectos con gobernanza abierta, flexibilidad y aplicabilidad amplia, funciones de vanguardia y rendimiento de primer nivel, y esperamos con ansias la colaboración continua para expandir el ecosistema de código abierto para los desarrolladores de AA". Alan Lee, vicepresidente corporativo de Desarrollo de Software, AMD
Cualquier escala
“Anyscale desarrolla tecnologías abiertas y escalables como Ray para ayudar a los profesionales de la IA a desarrollar sus aplicaciones con mayor rapidez y ponerlas a disposición de más usuarios. Recientemente, nos asociamos con el proyecto ALPA para usar OpenXLA con el objetivo de mostrar el entrenamiento de modelos de alto rendimiento para modelos grandes de lenguaje a gran escala. Nos complace participar en OpenXLA y nos entusiasma la forma en que este esfuerzo de código abierto permite ejecutar cargas de trabajo de IA en una variedad más amplia de plataformas de hardware de manera eficiente, lo que reduce la barrera de entrada, reduce los costos y avanza más rápido en el campo de la IA”. - Philipp Moritz, director de tecnología, Anyscale
Una manzana
Apple Inc. diseña, fabrica y comercializa smartphones, computadoras personales, tablets, wearables y accesorios, y vende una variedad de servicios relacionados.
Arm
“El proyecto OpenXLA marca un hito importante en el camino para simplificar el desarrollo de software de AA. Apoyamos plenamente la misión de OpenXLA y esperamos aprovechar la estabilidad y estandarización de OpenXLA en las hojas de ruta de hardware y software Arm® NeoverseTM". Peter Greenhalgh, vicepresidente de Tecnología y Miembro de Arm.
Cerebras
“En Cerebras, creamos aceleradores de IA diseñados para que el entrenamiento incluso de los modelos de IA más grandes sea rápido y sencillo. Nuestros sistemas y software se ajustan a los usuarios dondequiera que estén: permiten un desarrollo, iteración y escalamiento rápidos con frameworks de AA estándar sin cambios. OpenXLA ayuda a extender nuestro alcance de usuarios y acelerar el tiempo de solución, ya que proporciona al motor de escala Wafer Cerebras con una interfaz común para los frameworks de AA de mayor nivel. Nos entusiasma enormemente ver que el ecosistema de OpenXLA está disponible para una mayor participación, contribución y uso de la comunidad en GitHub”. - Andy Hock, vicepresidente y director de Producto, Cerebras Systems
Servicios
"El software de código abierto brinda a todas las personas la oportunidad de ayudar a crear avances en IA. En Google, colaboramos en el proyecto OpenXLA para ampliar nuestro compromiso con el código abierto y fomentar la adopción de herramientas de IA que elevan el estándar para el rendimiento del AA, aborda las incompatibilidades entre frameworks y hardware, y se reconfigura para abordar los casos de uso personalizados de los desarrolladores. Nos entusiasma desarrollar estas herramientas con la comunidad de OpenXLA para que los desarrolladores puedan impulsar avances en muchas capas diferentes de la pila de IA". - Jeff Dean, socio sénior y vicepresidente sénior de Google Research e IA
Graphcore
“Nuestra canalización del compilador de IPU ha usado XLA desde que se hizo público. Gracias a la independencia y estabilidad de la plataforma de XLA, proporciona un frontend ideal para usar un sistema novedoso de silicio. La flexibilidad de XLA nos permitió exponer las novedosas funciones de hardware de nuestra IPU y lograr un rendimiento de vanguardia con múltiples marcos de trabajo. Millones de consultas diarias son atendidas por sistemas que ejecutan código compilado por XLA. Nos entusiasma la dirección de OpenXLA y esperamos seguir contribuyendo al proyecto de código abierto. Creemos que formará un componente fundamental en el futuro de la IA y el AA". - David Norman, director de Diseño de Software, Graphcore
Hugging Face
"Facilitar la ejecución eficiente de cualquier modelo en cualquier hardware es un gran desafío técnico y un objetivo importante para nuestra misión de democratizar el buen aprendizaje automático. En Hugging Face, habilitamos XLA para los modelos de generación de texto de TensorFlow y logramos velocidades de alrededor de 100 veces más rápidas. Además, colaboramos estrechamente con equipos de ingeniería de Intel, AWS, Habana, Graphcore, AMD, Qualcomm y Google, creando puentes de código abierto entre frameworks y cada silicio, para ofrecer eficiencia lista para usar a los usuarios finales a través de nuestra biblioteca Optimum. OpenXLA promete los componentes básicos estandarizados sobre los que podemos desarrollar la interoperabilidad tan necesaria, y estamos ansiosos por seguir y contribuir". Morgan Funtowicz, directora de Optimización del Aprendizaje Automático, Hugging Face
Intel
“En Intel, creemos en el acceso abierto y democratizado a la IA. Las CPU Intel, las GPU, los aceleradores Habana Gaudi y el software de IA con tecnología de OneAPI, incluido OpenVINO, impulsan cargas de trabajo de AA en todas partes, desde supercomputadoras a exaescala hasta implementaciones importantes en la nube. Junto con otros miembros de OpenXLA, buscamos respaldar herramientas de compilación de AA basadas en estándares que impulsen la innovación en múltiples frameworks y entornos de hardware para acelerar la investigación y la ciencia que cambian el mundo”. Greg Lavender, vicepresidente sénior de Intel, director de tecnología y gerente general del Grupo de Software y Tecnología Avanzada
Meta
“En las investigaciones, en Meta AI, usamos XLA, una tecnología central del proyecto OpenXLA, para habilitar los modelos PyTorch para Cloud TPU y pudimos lograr mejoras de rendimiento significativas en proyectos importantes. Creemos que el código abierto acelera el ritmo de innovación en el mundo y nos entusiasma formar parte del proyecto OpenXLA". - Soumith Chintala, encargado de mantenimiento líder, PyTorch
NVIDIA
“Como miembro fundador del proyecto OpenXLA, NVIDIA espera colaborar en los avances de IA y AA con la comunidad de OpenXLA. Además, está positivo de que, con una mayor participación y adopción de OpenXLA, los desarrolladores de AA tendrán la infraestructura de IA de vanguardia”. Roger Bringmann, vicepresidente de Software de compilación de NVIDIA.