소스에서 빌드

이 문서에서는 XLA 구성요소를 빌드하는 방법을 설명합니다.

XLA 저장소를 클론하거나 Bazel을 설치하지 않았다면 XLA 개발자 가이드의 시작 섹션을 확인하세요.

Linux

구성

XLA 빌드는 저장소의 루트 디렉터리에 있는 .bazelrc 파일로 구성됩니다. ./configure.py 스크립트를 사용하여 일반적인 설정을 조정할 수 있습니다.

구성을 변경해야 하는 경우 저장소의 루트 디렉터리에서 ./configure.py 스크립트를 실행합니다. 이 스크립트에는 XLA 종속 항목 위치 플래그와 추가 빌드 구성 옵션 (예: 컴파일러 플래그)이 있습니다. 자세한 내용은 샘플 세션 섹션을 참고하세요.

CPU 지원

TensorFlow의 Docker 컨테이너와 같은 적절한 Docker 컨테이너를 사용하여 XLA를 빌드/테스트하는 것이 좋습니다.

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Docker 컨테이너를 사용하면 다음 명령어를 사용하여 CPU 지원과 함께 XLA를 빌드할 수 있습니다.

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Docker 없이 CPU 지원이 포함된 XLA 타겟을 빌드하려면 clang을 설치해야 합니다. XLA는 현재 clang-17을 사용하여 CI에서 빌드되지만 이전 버전도 작동합니다.

apt install clang

그런 다음 다음 명령어를 사용하여 타겟을 구성하고 빌드합니다.

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU 지원

GPU 지원이 포함된 XLA를 빌드하려면 위와 동일한 Docker 컨테이너를 사용하는 것이 좋습니다.

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

GPU 지원으로 XLA를 빌드하려면 다음 명령어를 사용하세요.

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

TensorFlow의 GPU Docker 이미지에 관한 자세한 내용은 이 문서를 참고하세요.

Docker 없이도 GPU 지원을 통해 XLA 타겟을 빌드할 수 있습니다. 다음 명령어를 사용하여 타겟을 구성하고 빌드합니다.

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

기밀 유지 CUDA에 관한 자세한 내용은 이 문서를 확인하세요.