XLA デベロッパー ガイド

このガイドでは、XLA プロジェクトの開発を開始する方法について説明します。

開始前に、前提条件となる次の手順を行います。

  1. CONTRIBUTING.md に移動し、投稿を確認します。 プロセスです
  2. まだ署名していない場合は、コントリビューター ライセンス契約に署名します。
  3. 次の依存関係をインストールまたは構成します。 <ph type="x-smartling-placeholder">

次に、以下の手順に沿ってソースコードを取得し、環境を設定し、リポジトリをビルドして、pull リクエストを作成します。

コードを取得する

  1. XLA リポジトリのフォークを作成します。
  2. <USER> は GitHub ユーザー名に置き換えて、リポジトリのフォークのクローンを作成します。

    git clone <a href="https://github.com/">https://github.com/</a><USER>/xla.git
    
  3. xla ディレクトリに移動します。cd xla

  4. リモートのアップストリーム リポジトリを構成します。

    git remote add upstream <a href="https://github.com/openxla/xla.git">https://github.com/openxla/xla.git</a>
    

環境を設定する

  1. Bazel をインストールします。

    XLA をビルドするには、Bazel がインストールされている必要があります。推奨されるインストール方法 Bazel が Bazelisk を使用している。 XLA に適した Bazel バージョンが自動的にダウンロードされます。Bazelisk の場合 使用できない場合は、Bazel をインストールできます。 できます。

  2. TensorFlow Docker コンテナを作成して実行します。

    CPU と GPU の両方のビルドに使用する TensorFlow Docker イメージを取得するには、次のコマンドを実行します。 次のコマンドを実行します。

    docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
    

ビルド

CPU 用にビルドする:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU 用にビルドします。

docker exec xla ./configure.py --backend=CUDA
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

最初のビルドでは、XLA、MLIR、StableHLO など、スタック全体をビルドするため、かなり時間がかかります。

XLA のビルドの詳細については、ソースからビルドするをご覧ください。

pull リクエストを作成する

変更を審査に送信する準備ができたら、 pull リクエスト

XLA コードレビューの考え方については、以下をご覧ください。 審査プロセス