このガイドでは、XLA プロジェクトの開発を開始する方法について説明します。
開始前に、前提条件となる次の手順を行います。
- CONTRIBUTING.md に移動し、投稿を確認します。 プロセスです
- まだ署名していない場合は、コントリビューター ライセンス契約に署名します。
- 次の依存関係をインストールまたは構成します。 <ph type="x-smartling-placeholder">
次に、以下の手順に沿ってソースコードを取得し、環境を設定し、リポジトリをビルドして、pull リクエストを作成します。
コードを取得する
- XLA リポジトリのフォークを作成します。
<USER>
は GitHub ユーザー名に置き換えて、リポジトリのフォークのクローンを作成します。git clone <a href="https://github.com/">https://github.com/</a><USER>/xla.git
xla
ディレクトリに移動します。cd xla
リモートのアップストリーム リポジトリを構成します。
git remote add upstream <a href="https://github.com/openxla/xla.git">https://github.com/openxla/xla.git</a>
環境を設定する
Bazel をインストールします。
XLA をビルドするには、Bazel がインストールされている必要があります。推奨されるインストール方法 Bazel が Bazelisk を使用している。 XLA に適した Bazel バージョンが自動的にダウンロードされます。Bazelisk の場合 使用できない場合は、Bazel をインストールできます。 できます。
TensorFlow Docker コンテナを作成して実行します。
CPU と GPU の両方のビルドに使用する TensorFlow Docker イメージを取得するには、次のコマンドを実行します。 次のコマンドを実行します。
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
ビルド
CPU 用にビルドする:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU 用にビルドします。
docker exec xla ./configure.py --backend=CUDA
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
最初のビルドでは、XLA、MLIR、StableHLO など、スタック全体をビルドするため、かなり時間がかかります。
XLA のビルドの詳細については、ソースからビルドするをご覧ください。
pull リクエストを作成する
変更を審査に送信する準備ができたら、 pull リクエスト。
XLA コードレビューの考え方については、以下をご覧ください。 審査プロセス。