このドキュメントでは、XLA コンポーネントのビルド方法について説明します。
XLA リポジトリのクローンを作成していない場合や Bazel をインストールしていない場合は、XLA デベロッパー ガイドの最初のセクションを確認してください。
Linux
設定
XLA ビルドは、リポジトリのルート ディレクトリにある .bazelrc
ファイルで構成されます。./configure.py
スクリプトを使用して、一般的な設定を調整できます。
構成を変更する必要がある場合は、リポジトリのルート ディレクトリから ./configure.py
スクリプトを実行します。このスクリプトには、XLA の依存関係の場所と追加のビルド構成オプション(コンパイラ フラグなど)のフラグがあります。詳細については、サンプル セッション セクションをご覧ください。
CPU のサポート
TensorFlow の Docker コンテナなど、適切な Docker コンテナを使用して XLA をビルドおよびテストすることをおすすめします。
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Docker コンテナを使用して、次のコマンドを使用して CPU サポート付きの XLA をビルドできます。
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Docker を使用せずに CPU サポート付きの XLA ターゲットをビルドする場合は、clang をインストールする必要があります。現在、XLA は clang-17 を使用して CI 上に構築していますが、以前のバージョンも機能します。
apt install clang
次に、次のコマンドを使用してターゲットを構成してビルドします。
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU のサポート
GPU サポート付きの XLA をビルドするには、上記と同じ Docker コンテナを使用することをおすすめします。
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
GPU サポートで XLA をビルドするには、次のコマンドを使用します。
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
TensorFlow の GPU Docker イメージの詳細については、こちらのドキュメントをご覧ください。
Docker を使用せずに GPU サポートを使用して XLA ターゲットをビルドすることもできます。次のコマンドを使用して、ターゲットを構成してビルドします。
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
密閉型の CUDA について詳しくは、このドキュメントをご覧ください。