Kaynaktan oluştur

Bu dokümanda, XLA bileşenlerinin nasıl oluşturulacağı açıklanmaktadır.

XLA deposunu klonlamadıysanız veya Bazel'ı yüklemediyseniz lütfen "Başlayın" bölümünde bulabilirsiniz.

Linux

Yapılandır

XLA derlemeleri, deponun kökündeki .bazelrc dosyası tarafından yapılandırılır dizin. ./configure.py komut dosyası, ortak ayarları düzenlemek için kullanılabilir.

Yapılandırmayı değiştirmeniz gerekirse ./configure.py komut dosyasını şuradan çalıştırın: kök dizinine ekleyin. Bu komut dosyasında XLA'nın konumu için işaretler var bağımlılıkları ve ek derleme yapılandırması seçenekleri ( örneğine bakın). Ayrıntılar için Örnek oturum bölümünü inceleyin.

CPU desteği

XLA'yı derlemek/test etmek için aşağıdakiler gibi uygun bir Docker container'ı kullanmanızı öneririz: TensorFlow'un Docker container'ı:

docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

Docker container'ı kullanarak aşağıdaki komut dosyalarından faydalanarak CPU destekli XLA derleyebilirsiniz: komutları:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build //xla/...  --spawn_strategy=sandboxed --test_output=all

Docker olmadan CPU destekli XLA hedefleri oluşturmak istiyorsanız clang'i yükleyin. XLA şu anda clang-17 ile CI üzerinde derleme yapıyor ancak daha eski sürümleri şunu da çalışmalı:

apt install clang

Ardından aşağıdaki komutları kullanarak hedefleri yapılandırıp oluşturun:

./configure.py --backend=CPU
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

GPU desteği

GPU ile XLA oluşturmak için yukarıdakiyle aynı Docker container'ını kullanmanız önerilir destek:

docker run --name xla_gpu -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash

GPU desteğiyle XLA oluşturmak için aşağıdaki komutu kullanın:

docker exec xla_gpu ./configure.py --backend=CUDA
docker exec xla_gpu bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

Şununla ilgili daha fazla bilgi: TensorFlow'un GPU Docker görüntülerine bu belgeden göz atabilirsiniz.

XLA hedeflerini Docker olmadan da GPU desteğiyle oluşturabilirsiniz. Yapılandırın ve aşağıdaki komutları kullanarak hedef oluşturabilirsiniz:

./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

Şununla ilgili daha fazla bilgi: bu belgeye göz atabilirsiniz.