このドキュメントでは、XLA コンポーネントをビルドする方法について説明します。
XLA リポジトリのクローンを作成していない場合や、Bazel をインストールしていない場合は、 「始める」セクション内にあります。
Linux
設定
XLA ビルドは、リポジトリのルートにある .bazelrc
ファイルで構成します。
されます。./configure.py
スクリプトを使用して、一般的な設定を調整できます。
構成を変更する必要がある場合は、./configure.py
スクリプトを実行します。
ルート ディレクトリに移動します。このスクリプトには XLA の場所を示すフラグがある
追加のビルド構成オプション(コンパイラ フラグ、
例です)。詳細については、サンプル セッションのセクションをご覧ください。
CPU サポート
XLA のビルド/テストには、次のような適切な Docker コンテナを使用することをおすすめします。 TensorFlow の Docker コンテナ:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Docker コンテナを使用すると、以下を使用して CPU サポートのある XLA をビルドできます。 コマンド:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Docker を使用せずに CPU サポートを使用して XLA ターゲットをビルドするには、以下を行う必要があります。 clang をインストールします。現在 XLA は clang-17 を使用して CI 上に構築しているが、それより古いバージョン も機能します。
apt install clang
次に、次のコマンドを使用してターゲットを構成してビルドします。
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU のサポート
GPU で XLA をビルドするには、上記と同じ Docker コンテナを使用することをおすすめします。 サポート:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
GPU サポートを使用して XLA をビルドするには、次のコマンドを使用します。
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
このモジュールの こちらのドキュメントをご確認ください。
Docker を使用せずに GPU サポートを使用して XLA ターゲットをビルドすることもできます。構成と 次のコマンドを使用して、ビルド ターゲットを作成します。
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
このモジュールの こちらのドキュメントを参照してください