Questo documento descrive come creare componenti XLA.
Se non hai clonato il repository XLA o installato Bazel, consulta la "Inizia" del documento README.
Linux
Configura
Le build XLA sono configurate dal file .bazelrc
nella radice del repository
. Lo script ./configure.py
può essere utilizzato per modificare le impostazioni più comuni.
Se devi modificare la configurazione, esegui lo script ./configure.py
da
nella directory radice del repository. Questo script ha flag per la posizione dell'opzione XLA
e opzioni aggiuntive di configurazione della build (flag del compilatore,
esempio). Per maggiori dettagli, consulta la sezione Sessione di esempio.
Supporto CPU
Ti consigliamo di utilizzare un container Docker adatto per creare/testare l'XL, ad esempio Container Docker di TensorFlow:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Con un container Docker puoi creare una XLA con il supporto della CPU utilizzando quanto segue :
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Se vuoi creare destinazioni XLA con il supporto della CPU senza Docker, devi installare clang. XLA attualmente si basa su CI con clang-17, ma nelle versioni precedenti dovrebbe funzionare anche:
apt install clang
Quindi, configura e crea le destinazioni utilizzando i comandi seguenti:
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Supporto GPU
Ti consigliamo di utilizzare lo stesso container Docker specificato sopra per creare XLA con GPU assistenza:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Per creare una soluzione XLA con il supporto delle GPU, utilizza il seguente comando:
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Per ulteriori dettagli su Puoi consultare questo documento per le immagini Docker GPU di TensorFlow.
Puoi anche creare destinazioni XLA con il supporto GPU senza Docker. Configura e creare le destinazioni utilizzando i seguenti comandi:
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Per ulteriori dettagli su CUDA ermetico, puoi consultare questo documento.