En este documento, se describe cómo compilar componentes XLA.
Si no clonaste el repositorio de XLA ni instalaste Bazel, consulta la "Comenzar" del documento README.
Linux
Configurar
Las compilaciones de XLA se configuran mediante el archivo .bazelrc
en la raíz del repositorio
. La secuencia de comandos ./configure.py
se puede usar para ajustar parámetros de configuración comunes.
Si necesitas cambiar la configuración, ejecuta la secuencia de comandos ./configure.py
desde
directorio raíz del repositorio. Esta secuencia de comandos tiene marcas para la ubicación de XLA
dependencias y opciones adicionales de configuración de compilación (marcas del compilador, para
ejemplo). Consulta la sección Sesión de muestra para obtener más detalles.
Compatibilidad con CPU
Recomendamos usar un contenedor de Docker adecuado para compilar o probar XLA, como Contenedor de Docker de TensorFlow:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Con un contenedor de Docker, puedes compilar XLA compatibles con CPU mediante el siguiente comando: comandos:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Si deseas compilar destinos de XLA compatibles con CPU sin Docker, debes instalar clang. Actualmente, XLA se basa en CI con clang-17, pero las versiones anteriores también debería funcionar:
apt install clang
Luego, configura y compila los destinos con los siguientes comandos:
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Asistencia de GPU
Recomendamos usar el mismo contenedor de Docker que se muestra arriba para compilar XLA con GPU. soporte:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Para compilar XLA compatibles con GPU, usa el siguiente comando:
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Para obtener más información sobre Imágenes de Docker de GPU de TensorFlow que puedes revisar en este documento.
También puedes compilar destinos de XLA compatibles con GPU sin Docker. Configurar y los destinos de compilación con los siguientes comandos:
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Para obtener más información sobre CUDA hermética, puedes consultar este documento.