XLA 개발자 가이드

이 가이드에서는 XLA 프로젝트 개발을 시작하는 방법을 보여줍니다.

시작하기 전에 다음 기본 요건을 완료하세요.

  1. CONTRIBUTING.md로 이동하여 참여 프로세스를 검토합니다.
  2. 아직 서명하지 않았다면 기여자 라이선스 계약에 서명합니다.
  3. 다음 종속 항목을 설치하거나 구성합니다.

그런 다음 아래 단계에 따라 소스 코드를 가져오고, 환경을 설정하고, 저장소를 빌드하고, pull 요청을 만듭니다.

코드 가져오기

  1. XLA 저장소의 포크를 만듭니다.
  2. 저장소의 포크를 클론하고 <USER>을 GitHub 사용자 이름으로 바꿉니다.

    git clone <a href="https://github.com/">https://github.com/</a><USER>/xla.git
    
  3. xla 디렉터리로 변경합니다. cd xla

  4. 원격 업스트림 저장소를 구성합니다.

    git remote add upstream <a href="https://github.com/openxla/xla.git">https://github.com/openxla/xla.git</a>
    

환경 설정

  1. Bazel을 설치합니다.

    XLA를 빌드하려면 Bazel이 설치되어 있어야 합니다. Bazel 설치에 권장되는 방법은 XLA용 올바른 Bazel 버전을 자동으로 다운로드하는 Bazelisk를 사용하는 것입니다. Bazelisk를 사용할 수 없는 경우 수동으로 Bazel을 설치할 수 있습니다.

  2. TensorFlow Docker 컨테이너를 만들고 실행합니다.

    다음 명령어를 실행하여 CPU용 TensorFlow Docker 이미지를 가져옵니다.

    docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
    

    또는 다음 명령어를 실행하여 GPU용 TensorFlow Docker 이미지를 가져옵니다.

    docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/tensorflow:devel-gpu bash
    

빌드

CPU용으로 빌드:

docker exec xla ./configure
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU용으로 빌드:

docker exec -e TF_NEED_CUDA=1 xla_gpu ./configure
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

첫 번째 빌드는 XLA, MLIR, StableHLO를 포함한 전체 스택을 빌드해야 하므로 꽤 시간이 걸립니다.

XLA 빌드에 관한 자세한 내용은 소스에서 빌드를 참고하세요.

pull 요청 만들기

검토를 위해 변경사항을 전송할 준비가 되면 pull 요청을 만듭니다.

XLA 코드 검토 철학을 알아보려면 코드 검토를 참고하세요.