ソースからビルドする

このドキュメントでは、XLA コンポーネントをビルドする方法について説明します。

XLA リポジトリのクローンを作成していない場合や、Bazel をインストールしていない場合は、 「始める」セクション内にあります。

Linux

設定

XLA ビルドは、リポジトリのルートにある .bazelrc ファイルで構成します。 されます。./configure.py スクリプトを使用して、一般的な設定を調整できます。

構成を変更する必要がある場合は、./configure.py スクリプトを実行します。 ルート ディレクトリに移動します。このスクリプトには XLA の場所を示すフラグがある 追加のビルド構成オプション(コンパイラ フラグ、 例です)。詳細については、サンプル セッションのセクションをご覧ください。

CPU サポート

XLA のビルド/テストには、次のような適切な Docker コンテナを使用することをおすすめします。 TensorFlow の Docker コンテナ:

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Docker コンテナを使用すると、以下を使用して CPU サポートのある XLA をビルドできます。 コマンド:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Docker を使用せずに CPU サポートを使用して XLA ターゲットをビルドするには、以下を行う必要があります。 clang をインストールします。現在 XLA は clang-17 を使用して CI 上に構築しているが、それより古いバージョン も機能します。

apt install clang

次に、次のコマンドを使用してターゲットを構成してビルドします。

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU のサポート

GPU で XLA をビルドするには、上記と同じ Docker コンテナを使用することをおすすめします。 サポート:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

GPU サポートを使用して XLA をビルドするには、次のコマンドを使用します。

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

このモジュールの こちらのドキュメントをご確認ください。

Docker を使用せずに GPU サポートを使用して XLA ターゲットをビルドすることもできます。構成と 次のコマンドを使用して、ビルド ターゲットを作成します。

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

このモジュールの こちらのドキュメントを参照してください