Compila a partir del código fuente

En este documento, se describe cómo compilar componentes XLA.

Si no clonaste el repositorio de XLA ni instalaste Bazel, consulta la "Comenzar" del documento README.

Linux

Configurar

Las compilaciones de XLA se configuran mediante el archivo .bazelrc en la raíz del repositorio . La secuencia de comandos ./configure.py se puede usar para ajustar parámetros de configuración comunes.

Si necesitas cambiar la configuración, ejecuta la secuencia de comandos ./configure.py desde directorio raíz del repositorio. Esta secuencia de comandos tiene marcas para la ubicación de XLA dependencias y opciones adicionales de configuración de compilación (marcas del compilador, para ejemplo). Consulta la sección Sesión de muestra para obtener más detalles.

Compatibilidad con CPU

Recomendamos usar un contenedor de Docker adecuado para compilar o probar XLA, como Contenedor de Docker de TensorFlow:

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Con un contenedor de Docker, puedes compilar XLA compatibles con CPU mediante el siguiente comando: comandos:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Si deseas compilar destinos de XLA compatibles con CPU sin Docker, debes instalar clang. Actualmente, XLA se basa en CI con clang-17, pero las versiones anteriores también debería funcionar:

apt install clang

Luego, configura y compila los destinos con los siguientes comandos:

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

Asistencia de GPU

Recomendamos usar el mismo contenedor de Docker que se muestra arriba para compilar XLA con GPU. soporte:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Para compilar XLA compatibles con GPU, usa el siguiente comando:

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

Para obtener más información sobre Imágenes de Docker de GPU de TensorFlow que puedes revisar en este documento.

También puedes compilar destinos de XLA compatibles con GPU sin Docker. Configurar y los destinos de compilación con los siguientes comandos:

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

Para obtener más información sobre CUDA hermética, puedes consultar este documento.