Korzystanie z narzędzi XLA

Proces tworzenia XLA zwykle koncentruje się na pośrednim kodzie HLO, który reprezentuje izolowane obliczenia funkcyjne przekazane kompilatorowi. XLA zawiera wiele narzędzi wiersza poleceń (opisanych poniżej), które korzystają z HLO i wykonywują je lub zapewniają pośredni etap kompilacji. Korzystanie z takich narzędzi jest nieocenione w przypadku szybkiego cyklu iteracji compile->modify->run, ponieważ model HLO można wizualizować i modyfikować, a jego iteracyjne zmienianie i uruchamianie jest często najszybszym sposobem na zrozumienie i naprawianie wydajności lub zachowania XLA.

Najłatwiejszym sposobem uzyskania HLO dla programu kompilowanego za pomocą XLA jest zwykle użycie zmiennej środowiskowej XLA_FLAGS:

$ XLA_FLAGS=--xla_dump_to=/tmp/myfolder ./myprogram-entry-point

który przechowuje w wybranym folderze wszystkie pliki HLO przed optymalizacją oraz wiele innych przydatnych artefaktów.

Uruchomienie fragmentów kodu HLO: run_hlo_module

Narzędzie run_hlo_module działa na HLO przed optymalizacją i domyślnie łączy kompilację, uruchamianie i porównanie z implementacją referencyjnego interpretera. Na przykład zwykłe wywołanie do uruchomienia pliku wejściowegocomputation.hlo na GPU NVIDIA i sprawdzenia jego poprawności:

$ run_hlo_module --platform=CUDA --reference_platform=Interpreter computation.hlo

Podobnie jak w przypadku wszystkich narzędzi, za pomocą --help możesz uzyskać pełną listę opcji.

Uruchamianie fragmentów kodu HLO z obsługą SPMD: multihost_hlo_runner

Multihost HLO runner to bardzo podobne narzędzie, które obsługuje SPMD, w tym komunikację między hostami. Szczegółowe informacje znajdziesz w artykule Multi-Host HLO Runner.

Powtórzenie z wieloma poziomami HLO

Wywoływanie z wieloma modułami jest obsługiwane zarówno w przypadku run_hlo_module, jak i hlo_runner_main, co często jest przydatne do odtwarzania wszystkich modułów w katalogu zrzutu:

$ hlo_runner_main /dump/*before_optimizations*

Przeprowadzanie przejść/etapów kompilacji HLO: hlo-opt

Podczas debugowania lub poznawania działania kompilatora często warto uzyskać rozszerzenie dla konkretnego sprzętu w określonym punkcie potoku (czyli HLO, zoptymalizowanego HLO, TritonIR lub LLVM) dla danego (stabilnego) wejścia HLO.

hlo-opt obsługuje wiele etapów wyjściowych: PTX, HLO po optymalizacji, LLVM IR przed optymalizacją lub TritonIR. Dokładny zestaw obsługiwanych etapów zależy od platformy (np. PTX jest specyficzny dla NVIDIA) i można go wyświetlić za pomocą polecenia --list-stages:

$ hlo-opt --platform=CUDA --list-stages
hlo
llvm
ptx

Po wybraniu etapu użytkownik może zapisać wynik konwersji na danej platformie w danym strumieniu:

$ hlo-opt myinput.hlo --platform=CUDA --stage=llvm

który wypisuje zrzut do stdout (lub do określonego pliku, jeśli podano parametr -o).

Korzystanie bez urządzenia

Do większości etapów kompilacji nie jest potrzebny dostęp do GPU.Podając specyfikację GPU w wierszu poleceń, możemy uzyskać np. dane wyjściowe PTX bez dostępu do akceleratora:

$ hlo-opt  --platform=CUDA --stage=llvm  --xla_gpu_target_config_filename=(pwd)/tools/data/gpu_specs/a100_pcie_80.txtpb input.hlo

Specyfikacje popularnych procesorów graficznych są dostarczane z kompilatorem, a przez podany plik rozumie się ciąg znaków device_description.proto:

gpu_device_info {
  cuda_compute_capability {
    major: 8
    minor: 0
  }
  threads_per_block_limit: 1024
  threads_per_warp: 32
  shared_memory_per_block: 127152
  shared_memory_per_core: 65536
  threads_per_core_limit: 2048
  core_count: 6192
  fpus_per_core: 64
  block_dim_limit_x: 2147483647
  block_dim_limit_y: 65535
  block_dim_limit_z: 65535
  memory_bandwidth: 2039000000000
  l2_cache_size: 4194304
  clock_rate_ghz: 1.1105
  device_memory_size: 79050250240
}
platform_name: "CUDA"

Kompilacja bez urządzeń może napotkać problemy, jeśli wymagane jest automatyczne dostrojenie. Na szczęście możemy je też podać w wierszu poleceń:

$ hlo-opt  --platform=CUDA --stage=llvm  --xla_gpu_target_config_filename=gpu_specs/a100_pcie_80.txtpb --xla_gpu_load_autotune_results_from=results.textpb input.hlo

Plik autotune to tekstowa serializacja autotune_results.proto, na przykład:

version: 3
results {
  device: "CUDA: 8.0, Cores: 108, GPU clock: 1.41 GHz, Memory bandwidth: 1555 GB/s, L2 cache: 40 MB"
  hlo: "{\n  tmp_0 = f16[1,16,17,3]{3,2,1,0} parameter(0)\n  tmp_1 = f16[16,51]{1,0} bitcast(f16[1,16,17,3]{3,2,1,0} tmp_0)\n  tmp_2 = s8[16,17,3]{2,1,0} parameter(1)\n  tmp_3 = s8[51,16]{0,1} bitcast(s8[16,17,3]{2,1,0} tmp_2)\n  tmp_4 = f16[51,16]{0,1} convert(s8[51,16]{0,1} tmp_3)\n  tmp_5 = f16[16,16]{1,0} dot(f16[16,51]{1,0} tmp_1, f16[51,16]{0,1} tmp_4), lhs_contracting_dims={1}, rhs_contracting_dims={0}\n  ROOT tmp_6 = f16[1,16,16]{2,1,0} bitcast(f16[16,16]{1,0} tmp_5)\n}"
  result {
    run_time {
      nanos: 31744
    }
    triton {
      block_m: 32
      block_n: 32
      block_k: 32
      split_k: 1
      num_stages: 1
      num_warps: 4
    }
  }
}

Bazę danych do automatycznego dostrajania można serializować za pomocą:XLA_FLAGS=--xla_gpu_dump_autotune_results_t=<myfile.pbtxt>

Uruchamianie pojedynczego przejścia kompilatora

Obsługiwane są też flagi z XLA_FLAGS, więc narzędzia można używać do testowania pojedynczego przejścia:

$ hlo-opt --platform=CUDA --stage=hlo --passes=algebraic_simplifer input.hlo