소스에서 빌드

이 문서에서는 XLA 구성요소를 빌드하는 방법을 설명합니다.

XLA 저장소를 클론하거나 Bazel을 설치하지 않은 경우 "시작하기" 섹션에서 자세히 설명합니다.

Linux

구성

XLA 빌드는 저장소 루트에 있는 .bazelrc 파일로 구성됩니다. 를 참조하세요. ./configure.py 스크립트를 사용하여 일반 설정을 조정할 수 있습니다.

구성을 변경해야 하는 경우 다음에서 ./configure.py 스크립트를 실행합니다. 찾을 수 있습니다 이 스크립트에는 XLA의 위치에 대한 플래그가 있습니다. 추가 빌드 구성 옵션 (컴파일러 플래그, 예) 자세한 내용은 샘플 세션 섹션을 참고하세요.

CPU 지원

다음과 같이 XLA를 빌드/테스트하는 데 적합한 Docker 컨테이너를 사용하는 것이 좋습니다. TensorFlow의 Docker 컨테이너:

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Docker 컨테이너를 사용하면 다음을 사용하여 CPU를 지원하는 XLA를 빌드할 수 있습니다. 명령어:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Docker 없이 CPU를 지원하는 XLA 타겟을 빌드하려면 clang을 설치합니다. XLA는 현재 clang-17로 CI를 기반으로 빌드되지만 그 이전 버전은 도 효과가 있습니다.

apt install clang

그런 다음, 다음 명령어를 사용하여 대상을 구성하고 빌드합니다.

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU 지원

위와 동일한 Docker 컨테이너를 사용하여 GPU로 XLA를 빌드하는 것이 좋습니다. 지원:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

GPU를 지원하는 XLA를 빌드하려면 다음 명령어를 사용합니다.

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

다음에 대한 자세한 내용은 TensorFlow의 GPU Docker 이미지는 이 문서에서 확인할 수 있습니다.

Docker 없이도 GPU를 지원하는 XLA 타겟을 빌드할 수 있습니다. 구성 및 다음 명령어를 사용하여 대상을 빌드합니다.

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

다음에 대한 자세한 내용은 이 문서를 확인해 보세요