ソースからビルドする

このドキュメントでは、XLA コンポーネントのビルド方法について説明します。

XLA リポジトリのクローンを作成していない場合や Bazel をインストールしていない場合は、XLA デベロッパー ガイドの最初のセクションを確認してください。

Linux

設定

XLA ビルドは、リポジトリのルート ディレクトリにある .bazelrc ファイルで構成されます。./configure.py スクリプトを使用して、一般的な設定を調整できます。

構成を変更する必要がある場合は、リポジトリのルート ディレクトリから ./configure.py スクリプトを実行します。このスクリプトには、XLA の依存関係の場所と追加のビルド構成オプション(コンパイラ フラグなど)のフラグがあります。詳細については、サンプル セッション セクションをご覧ください。

CPU のサポート

TensorFlow の Docker コンテナなど、適切な Docker コンテナを使用して XLA をビルドおよびテストすることをおすすめします。

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Docker コンテナを使用して、次のコマンドを使用して CPU サポート付きの XLA をビルドできます。

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Docker を使用せずに CPU サポート付きの XLA ターゲットをビルドする場合は、clang をインストールする必要があります。現在、XLA は clang-17 を使用して CI 上に構築していますが、以前のバージョンも機能します。

apt install clang

次に、次のコマンドを使用してターゲットを構成してビルドします。

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU のサポート

GPU サポート付きの XLA をビルドするには、上記と同じ Docker コンテナを使用することをおすすめします。

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

GPU サポートで XLA をビルドするには、次のコマンドを使用します。

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

TensorFlow の GPU Docker イメージの詳細については、こちらのドキュメントをご覧ください。

Docker を使用せずに GPU サポートを使用して XLA ターゲットをビルドすることもできます。次のコマンドを使用して、ターゲットを構成してビルドします。

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

密閉型の CUDA について詳しくは、このドキュメントをご覧ください。