本文件說明如何建構 XLA 元件。
如果您並未複製 XLA 存放區或安裝 Bazel,請查看 「開始使用」一節。
Linux
設定
XLA 版本是由存放區根目錄中的 .bazelrc
檔案所設定
目錄。./configure.py
指令碼可用於調整常用設定。
如需變更設定,請在以下位置執行 ./configure.py
指令碼:
複製到存放區根目錄這個指令碼含有 XLA 位置的旗標
依附元件和其他建構設定選項 (
範例)。詳情請參閱「範例工作階段」一節。
CPU 支援
建議您使用合適的 Docker 容器來建構/測試 XLA,例如 TensorFlow 的 Docker 容器:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
使用 Docker 容器,您可以使用以下指令建構支援 CPU 的 XLA 指令:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
如要在不使用 Docker 的情況下建構支援 CPU 的 XLA 目標,您必須 安裝 clang。XLA 目前使用 clang-17 的 CI 建構,但較舊版本 也支援:
apt install clang
然後使用下列指令設定及建構目標:
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU 支援
建議您使用相同的 Docker 容器來使用 GPU 建構 XLA 支援服務:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
如要建構支援 GPU 的 XLA,請使用以下指令:
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
如要進一步瞭解 請參閱本文件,瞭解 TensorFlow GPU Docker 映像檔。
您也可以建構在不使用 Docker 的情況下支援 GPU 的 XLA 目標。設定和 建構目標:
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
如要進一步瞭解 請參閱這份文件