В этом документе описывается, как создавать компоненты XLA.
Если вы не клонировали репозиторий XLA и не устанавливали Bazel, ознакомьтесь с начальными разделами Руководства разработчика XLA .
Линукс
Настроить
Сборки XLA настраиваются с помощью файла .bazelrc
в корневом каталоге репозитория. Сценарий ./configure.py
можно использовать для настройки общих настроек.
Если вам нужно изменить конфигурацию, запустите сценарий ./configure.py
из корневого каталога репозитория. Этот скрипт имеет флаги для расположения зависимостей XLA и дополнительные параметры конфигурации сборки (например, флаги компилятора). Подробности см. в разделе «Пример сеанса» .
Поддержка ЦП
Мы рекомендуем использовать подходящий докер-контейнер для сборки/тестирования XLA, например докер-контейнер TensorFlow :
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Используя Docker-контейнер, вы можете собрать XLA с поддержкой ЦП, используя следующие команды:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Если вы хотите создавать цели XLA с поддержкой ЦП без Docker, вам необходимо установить clang. XLA в настоящее время основан на CI с clang-17, но более ранние версии также должны работать:
apt install clang
Затем настройте и создайте цели, используя следующие команды:
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Поддержка графического процессора
Мы рекомендуем использовать тот же Docker-контейнер, что и выше, для сборки XLA с поддержкой графического процессора:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Чтобы собрать XLA с поддержкой графического процессора, используйте следующую команду:
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Для получения более подробной информации об изображениях док-станции TensorFlow для графического процессора вы можете ознакомиться с этим документом.
Вы также можете создавать цели XLA с поддержкой графического процессора без Docker. Настройте и создайте цели, используя следующие команды:
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Более подробную информацию о герметичном CUDA можно найти в этом документе.