从源代码构建

本文档介绍了如何构建 XLA 组件。

如果您尚未克隆 XLA 代码库或安装 Bazel,请查看 “开始使用”部分。

Linux

配置

XLA build 由代码库根目录中的 .bazelrc 文件配置 目录。./configure.py 脚本可用于调整常用设置。

如果需要更改配置,请从以下位置运行 ./configure.py 脚本: 代码库的根目录此脚本包含 XLA 位置的标志 依赖项和其他构建配置选项 示例)。如需了解详情,请参阅会话示例部分。

CPU 支持

我们建议使用合适的 Docker 容器来构建/测试 XLA,例如 TensorFlow 的 Docker 容器

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

使用 Docker 容器,您可以使用以下项构建支持 CPU 的 XLA 命令:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

如果您想在不使用 Docker 的情况下构建支持 CPU 的 XLA 目标,则需要 安装 Clang。XLA 目前使用 clang-17 基于 CI 构建,但版本较低 :

apt install clang

然后,使用以下命令配置和构建目标:

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU 支持

我们建议您使用与上面相同的 Docker 容器来构建支持 GPU 的 XLA 支持:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

如需构建支持 GPU 的 XLA,请使用以下命令:

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

如需详细了解 请查看本文档,了解 TensorFlow 的 GPU Docker 映像。

您也可以在不使用 Docker 的情况下构建支持 GPU 的 XLA 目标。配置并 编译目标:

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

如需详细了解 封闭的 CUDA,您可以查看此文档