이 문서에서는 XLA 구성요소를 빌드하는 방법을 설명합니다.
XLA 저장소를 클론하거나 Bazel을 설치하지 않은 경우 "시작하기" 섹션에서 자세히 설명합니다.
Linux
구성
XLA 빌드는 저장소 루트에 있는 .bazelrc
파일로 구성됩니다.
를 참조하세요. ./configure.py
스크립트를 사용하여 일반 설정을 조정할 수 있습니다.
구성을 변경해야 하는 경우 다음에서 ./configure.py
스크립트를 실행합니다.
찾을 수 있습니다 이 스크립트에는 XLA의 위치에 대한 플래그가 있습니다.
추가 빌드 구성 옵션 (컴파일러 플래그,
예) 자세한 내용은 샘플 세션 섹션을 참고하세요.
CPU 지원
다음과 같이 XLA를 빌드/테스트하는 데 적합한 Docker 컨테이너를 사용하는 것이 좋습니다. TensorFlow의 Docker 컨테이너:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Docker 컨테이너를 사용하면 다음을 사용하여 CPU를 지원하는 XLA를 빌드할 수 있습니다. 명령어:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Docker 없이 CPU를 지원하는 XLA 타겟을 빌드하려면 clang을 설치합니다. XLA는 현재 clang-17로 CI를 기반으로 빌드되지만 그 이전 버전은 도 효과가 있습니다.
apt install clang
그런 다음, 다음 명령어를 사용하여 대상을 구성하고 빌드합니다.
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU 지원
위와 동일한 Docker 컨테이너를 사용하여 GPU로 XLA를 빌드하는 것이 좋습니다. 지원:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
GPU를 지원하는 XLA를 빌드하려면 다음 명령어를 사용합니다.
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
다음에 대한 자세한 내용은 TensorFlow의 GPU Docker 이미지는 이 문서에서 확인할 수 있습니다.
Docker 없이도 GPU를 지원하는 XLA 타겟을 빌드할 수 있습니다. 구성 및 다음 명령어를 사용하여 대상을 빌드합니다.
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
다음에 대한 자세한 내용은 이 문서를 확인해 보세요