このガイドでは、XLA プロジェクトの開発を開始する方法について説明します。
開始前に、前提条件となる次の手順を行います。
- 寄付ページに移動して、寄付のプロセスを確認します。
- まだ署名していない場合は、コントリビューター ライセンス契約に署名します。
- 次の依存関係をインストールまたは構成します。
次に、以下の手順に沿ってソースコードを取得し、環境を設定し、リポジトリをビルドして、pull リクエストを作成します。
コードを取得する
- XLA リポジトリのフォークを作成します。
<USER>
は GitHub ユーザー名に置き換えて、リポジトリのフォークのクローンを作成します。git clone https://github.com/
/xla.git xla
ディレクトリに移動します。cd xla
リモートのアップストリーム リポジトリを構成します。
git remote add upstream https://github.com/openxla/xla.git
環境を設定する
Bazel をインストールします。
XLA をビルドするには、Bazel がインストールされている必要があります。Bazel をインストールするおすすめの方法は、Bazelisk を使用することです。これにより、XLA に適したバージョンの Bazel が自動的にダウンロードされます。Bazelisk を使用できない場合は、手動で Bazel をインストールできます。
TensorFlow Docker コンテナを作成して実行します。
CPU と GPU の両方のビルド用の TensorFlow Docker イメージを取得するには、次のコマンドを実行します。
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
構築
CPU のビルド:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU 用にビルドします。
docker exec xla ./configure.py --backend=CUDA
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
最初のビルドは、XLA、MLIR、StableHLO を含むスタック全体をビルドする必要があるため、時間がかかります。
XLA のビルドの詳細については、ソースからビルドするをご覧ください。
pull リクエストを作成する
変更を審査に送信する準備ができたら、pull リクエストを作成します。
XLA コードレビューの考え方については、レビュー プロセスをご覧ください。