A álgebra linear acelerada (XLA, na sigla em inglês) é um compilador de código aberto para machine learning. O compilador XLA usa modelos de frameworks conhecidos, como PyTorch, TensorFlow e JAX, e otimiza os modelos para execução de alto desempenho em diferentes plataformas de hardware, incluindo GPUs, CPUs e aceleradores de ML. Por exemplo, em um envio BERT MLPerf, o uso de XLA com GPUs de 8 Volta V100 conseguiu uma melhoria de desempenho de aproximadamente sete vezes e uma melhoria no tamanho de lote de aproximadamente cinco vezes em comparação com as mesmas GPUs sem XLA.
Como parte do projeto OpenXLA, o XLA é criado de maneira colaborativa por empresas de hardware e software de ML líderes do setor, incluindo Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta e NVIDIA.
Principais vantagens
Crie em qualquer lugar: o XLA já está integrado aos principais frameworks de ML, como TensorFlow, PyTorch e JAX.
Executar em qualquer lugar: ele oferece suporte a vários back-ends, incluindo GPUs, CPUs e aceleradores de ML, e inclui uma infraestrutura conectável para adicionar suporte a mais.
Maximizar e escalonar o desempenho: ele otimiza o desempenho de um modelo com passagens de otimização testadas em produção e particionamento automatizado para paralelismo de modelos.
Eliminar a complexidade: ele aproveita o poder de MLIR para disponibilizar os melhores recursos em um único conjunto de ferramentas de compilador. Assim, você não precisa gerenciar uma variedade de compiladores específicos de domínio.
Pronto para o futuro: como um projeto de código aberto, criado com a colaboração dos principais fornecedores de hardware e software de ML, o XLA foi projetado para operar na vanguarda do setor de ML.
Documentação
Para saber mais sobre XLA, confira os links à esquerda. Se você é um novo desenvolvedor de XLA, comece com a arquitetura XLA e, em seguida, leia Análises de código.