คู่มือนี้จะแสดงวิธีเริ่มต้นพัฒนาโครงการ XLA
ก่อนเริ่มต้น ให้ทำตามข้อกำหนดเบื้องต้นต่อไปนี้
- ไปที่ CONTRIBUTING.md และตรวจสอบการมีส่วนร่วม ขั้นตอนได้
- หากยังไม่ได้ดำเนินการ ให้ลงชื่อ ข้อตกลงใบอนุญาตสำหรับผู้ให้ข้อมูลร่วมกัน
- ติดตั้งหรือกำหนดค่าทรัพยากร Dependency ต่อไปนี้
จากนั้นทำตามขั้นตอนด้านล่างเพื่อรับซอร์สโค้ด ตั้งค่าสภาพแวดล้อม สร้าง ที่เก็บ และสร้างคำขอพุล
รับโค้ด
- สร้าง Fork ของที่เก็บ XLA
โคลนที่เก็บของคุณโดยแทนที่
<USER>
ด้วยชื่อผู้ใช้ GitHub ของคุณgit clone <a href="https://github.com/">https://github.com/</a><USER>/xla.git
เปลี่ยนเป็นไดเรกทอรี
xla
:cd xla
กำหนดค่าที่เก็บอัปสตรีมระยะไกลดังนี้
git remote add upstream <a href="https://github.com/openxla/xla.git">https://github.com/openxla/xla.git</a>
ตั้งค่าสภาพแวดล้อม
ติดตั้ง Bazel
หากต้องการสร้าง XLA คุณต้องติดตั้ง Bazel วิธีที่แนะนำในการติดตั้ง Bazel กำลังใช้ Bazelisk ซึ่งจะดาวน์โหลด Bazel เวอร์ชันที่ถูกต้องสำหรับ XLA โดยอัตโนมัติ หาก Bazelisk ไม่พร้อมใช้งาน คุณสามารถติดตั้ง Bazel ด้วยตนเองได้
สร้างและเรียกใช้คอนเทนเนอร์ Docker ของ TensorFlow
หากต้องการรับอิมเมจ TensorFlow Docker สำหรับทั้งการสร้าง CPU และ GPU ให้เรียกใช้ คำสั่งต่อไปนี้
docker run --name xla -w /xla -it -d --rm -v $PWD:/xla tensorflow/build:latest-python3.9 bash
สร้าง
บิลด์สำหรับ CPU:
docker exec xla ./configure.py --backend=CPU
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
บิลด์สำหรับ GPU:
docker exec xla ./configure.py --backend=CUDA
docker exec xla bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
./configure.py --backend=CUDA
bazel build --test_output=all --spawn_strategy=sandboxed //xla/...
บิลด์แรกจะใช้เวลานานพอสมควรเนื่องจากต้องสร้างทั้งสแต็ก ซึ่งรวมถึง XLA, MLIR และ StableHLO
ดูข้อมูลเพิ่มเติมเกี่ยวกับการสร้าง XLA ได้ที่สร้างจากแหล่งที่มา
สร้างคำขอดึงข้อมูล
เมื่อพร้อมที่จะส่งการเปลี่ยนแปลงไปตรวจสอบ ให้สร้าง คำขอพุล
หากต้องการเรียนรู้เกี่ยวกับปรัชญาการตรวจสอบโค้ด XLA โปรดดูที่ กระบวนการตรวจสอบ