OpenXLA
Próximos eventos
Laboratório de desenvolvimento do OpenXLA em novembro de 2024
Álgebra linear acelerada (XLA, na sigla em inglês)
Sobre
Instalação/uso
Documentação
StableHLO
Sobre
Documentação
Shardy
Sobre
Documentação
PJRT
Sobre
Comunidade
Avisos/discussões
Discord
Reuniões
YouTube
Contribuições
Parceiros do setor
Alibaba
“No Alibaba, o OpenXLA é aproveitado pelos clientes do Elastic GPU Service para treinamento e disponibilização de grandes modelos PyTorch. Observamos melhorias significativas no desempenho para clientes que usam o OpenXLA, especialmente velocidades de 72% para GPT2 e 88% para Swin Transformer em GPUs NVIDIA. Temos orgulho de ser um membro fundador do projeto OpenXLA e trabalhar com a comunidade de código aberto para desenvolver um compilador de ML avançado que proporcione desempenho e experiência do usuário superiores para os clientes do Alibaba Cloud.” - Yangqing Jia, VP, IA e análise de dados, Alibaba
Amazon Web Services
“Estamos felizes em ser um dos membros fundadores do Projeto OpenXLA, que vai democratizar o acesso a infraestruturas de IA eficientes, escalonáveis e extensíveis, além de maior colaboração com a comunidade de código aberto para promover a inovação. Na AWS, nossos clientes escalonam seus aplicativos de IA generativa no AWS Trainium e Inferentia, e nosso SDK Neuron depende de XLA para otimizar modelos de ML para alto desempenho e o melhor desempenho por watt. Com um robusto ecossistema OpenXLA, os desenvolvedores podem continuar inovando e oferecendo ótimo desempenho com uma infraestrutura sustentável de ML. Eles sabem que o código é portátil para uso em qualquer hardware." - Nafea Bshara, vice-presidente e engenheiro renomado da AWS
AMD
“Estamos empolgados com a direção futura do OpenXLA na ampla família de dispositivos AMD (CPUs, GPUs, AIE) e temos orgulho de fazer parte dessa comunidade. Valorizamos projetos com governança aberta, aplicabilidade flexível e ampla, recursos modernos e desempenho de alto nível. Estamos ansiosos pela colaboração contínua para expandir o ecossistema de código aberto para desenvolvedores de ML." – Alan Lee, vice-presidente corporativo, desenvolvimento de software da AMD
Qualquer escala
"A Anyscale desenvolve tecnologias abertas e escalonáveis, como o Ray, para ajudar os profissionais de IA a desenvolver aplicativos com mais rapidez e disponibilizá-los a mais usuários. Recentemente, fizemos uma parceria com o projeto ALPA para usar o OpenXLA e mostrar treinamento de modelos de alto desempenho para modelos de linguagem grandes em grande escala. Estamos felizes em participar do OpenXLA e empolgados com a forma como essa iniciativa de código aberto permite a execução eficiente de cargas de trabalho de IA em uma variedade maior de plataformas de hardware, reduzindo a barreira de entrada, reduzindo custos e avançando o campo da IA mais rapidamente." – Philipp Moritz, CTO, Anyscale
Apple
A Apple Inc. projeta, fabrica e comercializa smartphones, computadores pessoais, tablets, wearables e acessórios, além de vender uma variedade de serviços relacionados.
Arm
“O projeto OpenXLA marca um marco importante no caminho para simplificar o desenvolvimento de software de ML. Apoiamos totalmente a missão OpenXLA e esperamos aproveitar a estabilidade e a padronização do OpenXLA nos roteiros de hardware e software Arm® NeoverseTM." - Peter Greenhalgh, vice-presidente de tecnologia e membro da Arm.
Cerebras
“Na Cerebras, criamos aceleradores de IA projetados para tornar o treinamento até dos maiores modelos de IA rápido e fácil. Nossos sistemas e softwares atendem aos usuários onde eles estão, permitindo desenvolvimento, escalonamento e iteração rápidos com frameworks de ML padrão sem mudanças. O OpenXLA ajuda a estender nosso alcance de usuários e acelerou o tempo até a solução, fornecendo ao Cerebras Wafer-Scale Engine uma interface comum para frameworks de ML de nível superior. Estamos extremamente entusiasmados com a disponibilidade do ecossistema OpenXLA para o envolvimento, a contribuição e o uso ainda mais amplos da comunidade no GitHub.” - Andy Hock, vice-presidente e chefe de produto, Cerebras Systems
Serviços
“Com o software de código aberto, todos têm a oportunidade de ajudar a criar inovações em IA. O Google está colaborando no Projeto OpenXLA para promover nosso compromisso com o código aberto e promover a adoção de ferramentas de IA que elevam o padrão de desempenho do ML, abordam as incompatibilidades entre frameworks e hardware e são reconfiguráveis para atender a casos de uso personalizados dos desenvolvedores. Temos o prazer de desenvolver essas ferramentas com a comunidade OpenXLA para que os desenvolvedores possam promover avanços em muitas camadas diferentes da pilha de IA.” - Jeff Dean, pesquisador sênior e vice-presidente sênior do Google Research e AI
Gesto grafcore
“Nosso pipeline do compilador IPU usou XLA desde que se tornou público. Graças à independência e estabilidade da plataforma do XLA, ele fornece um front-end ideal para criar novos sistemas de silício. A flexibilidade do XLA nos permitiu expor os novos recursos de hardware de nossa IPU e alcançar o desempenho de última geração com várias estruturas. Milhões de consultas por dia são atendidas por sistemas que executam código compilado por XLA. Estamos entusiasmados com a direção do OpenXLA e esperamos continuar contribuindo com o projeto de código aberto. Acreditamos que isso vai formar um componente central no futuro da IA/ML." - David Norman, diretor de design de software, Graphcore
Hugging face
"Facilitar a execução eficiente de qualquer modelo em qualquer hardware é um grande desafio técnico e uma meta importante da nossa missão de democratizar o machine learning. Na Hugging Face, ativamos o XLA para modelos de geração de texto do TensorFlow e alcançamos velocidades de aproximadamente 100 vezes. Além disso, colaboramos de perto com as equipes de engenharia da Intel, AWS, Habana, Graphcore, AMD, Qualcomm e Google, criando pontes de código aberto entre estruturas e cada silício, para oferecer eficiência imediata aos usuários finais por meio da nossa biblioteca Optimum. O OpenXLA promete blocos padronizados sobre os quais podemos construir a interoperabilidade necessária, e mal podemos esperar para acompanhar e contribuir!" - Morgan Funtowicz, diretor de otimização do aprendizado de máquina, Hugging Face
Intel
“Na Intel, acreditamos no acesso aberto e democratizado à IA. As CPUs Intel, as GPUs, os aceleradores de Habana Gaudí e o software de IA com tecnologia oneAPI, incluindo o OpenVINO, impulsionam as cargas de trabalho de ML em todos os lugares, de supercomputadores exascale a grandes implantações na nuvem. Junto com outros membros do OpenXLA, buscamos oferecer suporte a ferramentas de compilador de ML baseadas em padrões e componentes que impulsionam a inovação em vários frameworks e ambientes de hardware para acelerar a ciência e a pesquisa que mudam o mundo.” - Greg Lavender, SVP da Intel, CTO e gerente geral de Software e Advanced Technology Group
Meta
“Na pesquisa, na Meta AI, temos usado a XLA, uma tecnologia central do projeto OpenXLA, para habilitar modelos PyTorch para Cloud TPUs e conseguimos melhorias significativas de desempenho em projetos importantes. Acreditamos que o código aberto acelera o ritmo da inovação no mundo e estamos felizes por fazer parte do projeto OpenXLA.” - Soumith Chintala, mantenedor líder, PyTorch
NVIDIA
“Como membro fundador do Projeto OpenXLA, a NVIDIA está ansiosa para colaborar nos avanços de IA/ML com a comunidade do OpenXLA e temos certeza de que, com um maior engajamento e adoção do OpenXLA, os desenvolvedores de ML terão uma infraestrutura de IA de última geração.” - Roger Bringmann, VP, Software Compiler, NVIDIA.