Bu dokümanda, XLA bileşenlerinin nasıl oluşturulacağı açıklanmaktadır.
XLA deposunu klonlamadıysanız veya Bazel'ı yüklemediyseniz lütfen "Başlayın" bölümünde bulabilirsiniz.
Linux
Yapılandır
XLA derlemeleri, deponun kökündeki .bazelrc
dosyası tarafından yapılandırılır
dizin. ./configure.py
komut dosyası, ortak ayarları düzenlemek için kullanılabilir.
Yapılandırmayı değiştirmeniz gerekirse ./configure.py
komut dosyasını şuradan çalıştırın:
kök dizinine ekleyin. Bu komut dosyasında XLA'nın konumu için işaretler var
bağımlılıkları ve ek derleme yapılandırması seçenekleri (
örneğine bakın). Ayrıntılar için Örnek oturum bölümünü inceleyin.
CPU desteği
XLA'yı derlemek/test etmek için aşağıdakiler gibi uygun bir Docker container'ı kullanmanızı öneririz: TensorFlow'un Docker container'ı:
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
Docker container'ı kullanarak aşağıdaki komut dosyalarından faydalanarak CPU destekli XLA derleyebilirsiniz: komutları:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/... --spawn_strategy=sandboxed --test_output=all
Docker olmadan CPU destekli XLA hedefleri oluşturmak istiyorsanız clang'i yükleyin. XLA şu anda clang-17 ile CI üzerinde derleme yapıyor ancak daha eski sürümleri şunu da çalışmalı:
apt install clang
Ardından aşağıdaki komutları kullanarak hedefleri yapılandırıp oluşturun:
./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
GPU desteği
GPU ile XLA oluşturmak için yukarıdakiyle aynı Docker container'ını kullanmanız önerilir destek:
docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
GPU desteğiyle XLA oluşturmak için aşağıdaki komutu kullanın:
docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Şununla ilgili daha fazla bilgi: TensorFlow'un GPU Docker görüntülerine bu belgeden göz atabilirsiniz.
XLA hedeflerini Docker olmadan da GPU desteğiyle oluşturabilirsiniz. Yapılandırın ve aşağıdaki komutları kullanarak hedef oluşturabilirsiniz:
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
Şununla ilgili daha fazla bilgi: bu belgeye göz atabilirsiniz.