คู่มือนักพัฒนาซอฟต์แวร์ XLA

คู่มือนี้จะแสดงวิธีเริ่มต้นพัฒนาโครงการ XLA

ก่อนเริ่มต้น ให้ทำตามข้อกำหนดเบื้องต้นต่อไปนี้

  1. ไปที่ CONTRIBUTING.md และตรวจสอบการมีส่วนร่วม ขั้นตอนได้
  2. หากยังไม่ได้ดำเนินการ ให้ลงชื่อ ข้อตกลงใบอนุญาตสำหรับผู้ให้ข้อมูลร่วมกัน
  3. ติดตั้งหรือกำหนดค่าทรัพยากร Dependency ต่อไปนี้

จากนั้นทำตามขั้นตอนด้านล่างเพื่อรับซอร์สโค้ด ตั้งค่าสภาพแวดล้อม สร้าง ที่เก็บ และสร้างคำขอพุล

รับโค้ด

  1. สร้าง Fork ของที่เก็บ XLA
  2. โคลนที่เก็บของคุณโดยแทนที่ <USER> ด้วยชื่อผู้ใช้ GitHub ของคุณ

    git clone <a href="https://github.com/">https://github.com/</a><USER>/xla.git
    
  3. เปลี่ยนเป็นไดเรกทอรี xla: cd xla

  4. กำหนดค่าที่เก็บอัปสตรีมระยะไกลดังนี้

    git remote add upstream <a href="https://github.com/openxla/xla.git">https://github.com/openxla/xla.git</a>
    

ตั้งค่าสภาพแวดล้อม

  1. ติดตั้ง Bazel

    หากต้องการสร้าง XLA คุณต้องติดตั้ง Bazel วิธีที่แนะนำในการติดตั้ง Bazel กำลังใช้ Bazelisk ซึ่งจะดาวน์โหลด Bazel เวอร์ชันที่ถูกต้องสำหรับ XLA โดยอัตโนมัติ หาก Bazelisk ไม่พร้อมใช้งาน คุณสามารถติดตั้ง Bazel ด้วยตนเองได้

  2. สร้างและเรียกใช้คอนเทนเนอร์ Docker ของ TensorFlow

    หากต้องการรับอิมเมจ TensorFlow Docker สำหรับทั้งการสร้าง CPU และ GPU ให้เรียกใช้ คำสั่งต่อไปนี้

    docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
    

สร้าง

บิลด์สำหรับ CPU:

docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

บิลด์สำหรับ GPU:

docker exec xla ./configure.py --backend=CUDA
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
./configure.py --backend=CUDA

bazel build --test_output=all --spawn_strategy=sandboxed //xla/...

บิลด์แรกจะใช้เวลานานพอสมควรเนื่องจากต้องสร้างทั้งสแต็ก ซึ่งรวมถึง XLA, MLIR และ StableHLO

ดูข้อมูลเพิ่มเติมเกี่ยวกับการสร้าง XLA ได้ที่สร้างจากแหล่งที่มา

สร้างคำขอดึงข้อมูล

เมื่อพร้อมที่จะส่งการเปลี่ยนแปลงไปตรวจสอบ ให้สร้าง คำขอพุล

หากต้องการเรียนรู้เกี่ยวกับปรัชญาการตรวจสอบโค้ด XLA โปรดดูที่ กระบวนการตรวจสอบ