從原始碼開始建構

本文件說明如何建構 XLA 元件。

如果您並未複製 XLA 存放區或安裝 Bazel,請查看 「開始使用」一節。

Linux

設定

XLA 版本是由存放區根目錄中的 .bazelrc 檔案所設定 目錄。./configure.py 指令碼可用於調整常用設定。

如需變更設定,請在以下位置執行 ./configure.py 指令碼: 複製到存放區根目錄這個指令碼含有 XLA 位置的旗標 依附元件和其他建構設定選項 ( 範例)。詳情請參閱「範例工作階段」一節。

CPU 支援

建議您使用合適的 Docker 容器來建構/測試 XLA,例如 TensorFlow 的 Docker 容器

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

使用 Docker 容器,您可以使用以下指令建構支援 CPU 的 XLA 指令:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

如要在不使用 Docker 的情況下建構支援 CPU 的 XLA 目標,您必須 安裝 clang。XLA 目前使用 clang-17 的 CI 建構,但較舊版本 也支援:

apt install clang

然後使用下列指令設定及建構目標:

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU 支援

建議您使用相同的 Docker 容器來使用 GPU 建構 XLA 支援服務:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

如要建構支援 GPU 的 XLA,請使用以下指令:

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

如要進一步瞭解 請參閱本文件,瞭解 TensorFlow GPU Docker 映像檔。

您也可以建構在不使用 Docker 的情況下支援 GPU 的 XLA 目標。設定和 建構目標:

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

如要進一步瞭解 請參閱這份文件