यहां XlaBuilder इंटरफ़ेस में तय की गई कार्रवाइयों के सिमैंटिक के बारे में बताया गया है. आम तौर पर, ये कार्रवाइयां xla_data.proto में आरपीसी इंटरफ़ेस में तय की गई कार्रवाइयों से एक-से-एक मैप करती हैं.
नामकरण के बारे में जानकारी: XLA जिस सामान्य डेटा टाइप से डील करता है वह एक N-डाइमेंशनल ऐरे है. इसमें एक ही तरह के एलिमेंट होते हैं. जैसे, 32-बिट फ़्लोट. पूरे दस्तावेज़ में, ऐरे का इस्तेमाल किसी भी डाइमेंशन वाले ऐरे को दिखाने के लिए किया जाता है. आसानी के लिए, खास मामलों के ज़्यादा सटीक और जाने-पहचाने नाम होते हैं. उदाहरण के लिए, वेक्टर एक डाइमेंशन वाला ऐरे होता है और मैट्रिक्स दो डाइमेंशन वाला ऐरे होता है.
शेप और लेआउट और टाइल वाला लेआउट में, Op के स्ट्रक्चर के बारे में ज़्यादा जानें.
ऐब्स
XlaBuilder::Abs भी देखें.
हर एलिमेंट का ऐब्सलूट वैल्यू x -> |x|.
Abs(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - abs देखें.
जोड़ें
XlaBuilder::Add भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट को जोड़ता है.
Add(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
'जोड़ें' के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
Add(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - add देखें.
AddDependency
HloInstruction::AddDependency भी देखें.
AddDependency, एचएलओ डंप में दिख सकते हैं. हालांकि, असली उपयोगकर्ताओं को इन्हें मैन्युअल तरीके से बनाने की अनुमति नहीं है.
AfterAll
XlaBuilder::AfterAll भी देखें.
AfterAll, अलग-अलग तरह के कई टोकन लेता है और एक टोकन जनरेट करता है. टोकन, प्रिमिटिव टाइप होते हैं. इनका इस्तेमाल साइड-इफ़ेक्ट वाली कार्रवाइयों के बीच थ्रेड किया जा सकता है, ताकि क्रम लागू किया जा सके. AfterAll का इस्तेमाल, टोकन को जोड़ने के लिए किया जा सकता है. इससे, कार्रवाइयों के सेट के बाद किसी कार्रवाई को क्रम से लगाया जा सकता है.
AfterAll(tokens)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
tokens |
XlaOp का वेक्टर |
टोकन की वैरिएडिक संख्या |
StableHLO के बारे में जानकारी के लिए, StableHLO - after_all देखें.
AllGather
XlaBuilder::AllGather भी देखें.
यह फ़ंक्शन, रेप्लिका के बीच कॉनकेटिनेशन करता है.
AllGather(operand, all_gather_dimension, shard_count, replica_groups,
channel_id, layout, use_global_device_ids)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
रेप्लिका में जोड़ने के लिए ऐरे |
all_gather_dimension |
int64 |
कॉन्कैटिनेशन डाइमेंशन |
shard_count
|
int64
|
हर रेप्लिका ग्रुप का साइज़ |
replica_groups
|
वेक्टर का वेक्टर
int64 |
वे ग्रुप जिनके बीच कॉनकेटनेशन किया जाता है |
channel_id
|
ज़रूरी नहीं
ChannelHandle |
क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए चैनल आईडी (ज़रूरी नहीं) |
layout
|
ज़रूरी नहीं Layout
|
यह एक लेआउट पैटर्न बनाता है. यह पैटर्न, आर्ग्युमेंट में मैच किए गए लेआउट को कैप्चर करेगा |
use_global_device_ids
|
ज़रूरी नहीं bool
|
अगर ReplicaGroup कॉन्फ़िगरेशन में मौजूद आईडी, ग्लोबल आईडी को दिखाते हैं, तो यह फ़ंक्शन सही वैल्यू दिखाता है |
replica_groups, रेप्लिका ग्रुप की एक सूची है. इनके बीच कॉनकैटेनेशन किया जाता है. मौजूदा रेप्लिका के लिए रेप्लिका आईडी,ReplicaIdका इस्तेमाल करके वापस पाया जा सकता है. हर ग्रुप में रेप्लिका का क्रम यह तय करता है कि उनके इनपुट, नतीजे में किस क्रम में दिखेंगे.replica_groupsखाली होना चाहिए. ऐसा होने पर, सभी रेप्लिका एक ही ग्रुप से जुड़ी होती हैं और उन्हें0सेN - 1तक क्रम से लगाया जाता है. इसके अलावा, इसमें रेप्लिका की संख्या के बराबर एलिमेंट होने चाहिए. उदाहरण के लिए,replica_groups = {0, 2}, {1, 3},0और2के साथ-साथ1और3के बीच कॉनकैटेनेशन करता है.shard_countहर रेप्लिका ग्रुप का साइज़ है. हमें इसकी ज़रूरत तब पड़ती है, जबreplica_groupsकी वैल्यू खाली होती है.channel_idका इस्तेमाल क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए किया जाता है: सिर्फ़ एक जैसेchannel_idवालेall-gatherएक-दूसरे से कम्यूनिकेट कर सकते हैं.use_global_device_idsअगर ReplicaGroup कॉन्फ़िगरेशन में मौजूद आईडी, रेप्लिका आईडी के बजाय (replica_id * partition_count + partition_id) के ग्लोबल आईडी को दिखाते हैं, तो यह फ़ंक्शन सही वैल्यू दिखाता है. अगर यह ऑल-रिड्यूस, क्रॉस-पार्टिशन और क्रॉस-रेप्लिका, दोनों है, तो इससे डिवाइसों को ज़्यादा आसानी से ग्रुप किया जा सकता है.
आउटपुट का आकार, इनपुट के आकार से all_gather_dimension गुना बड़ा होता है.shard_count उदाहरण के लिए, अगर दो रेप्लिका हैं और ऑपरेंड की वैल्यू, दो रेप्लिका पर क्रमशः [1.0, 2.5] और [3.0, 5.25] है, तो इस ऑप से मिलने वाली आउटपुट वैल्यू, जहां all_gather_dim, 0 है, दोनों रेप्लिका पर [1.0, 2.5, 3.0,5.25] होगी.
AllGather के एपीआई को अंदरूनी तौर पर दो एचएलओ निर्देशों (AllGatherStart और AllGatherDone) में बांटा गया है.
HloInstruction::CreateAllGatherStart भी देखें.
AllGatherStart और AllGatherDone, HLO में प्रिमिटिव के तौर पर काम करते हैं. ये ऑप्स, एचएलओ डंप में दिख सकते हैं. हालांकि, इन्हें उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
StableHLO के बारे में जानकारी के लिए, StableHLO - all_gather पर जाएं.
AllReduce
XlaBuilder::AllReduce भी देखें.
यह फ़ंक्शन, रेप्लिका में कस्टम कंप्यूटेशन करता है.
AllReduce(operand, computation, replica_groups, channel_id,
shape_with_layout, use_global_device_ids)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
ऐरे या ऐरे का ऐसा टपल जिसमें कोई भी एलिमेंट मौजूद न हो. इसका इस्तेमाल रेप्लिका में मौजूद डेटा को कम करने के लिए किया जाता है |
computation |
XlaComputation |
कटौती की रकम का हिसाब लगाना |
replica_groups
|
ReplicaGroup वेक्टर
|
जिन ग्रुप के बीच में कमी की गई है |
channel_id
|
ज़रूरी नहीं
ChannelHandle |
क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए चैनल आईडी (ज़रूरी नहीं) |
shape_with_layout
|
ज़रूरी नहीं Shape
|
ट्रांसफ़र किए गए डेटा के लेआउट के बारे में बताता है |
use_global_device_ids
|
ज़रूरी नहीं bool
|
अगर ReplicaGroup कॉन्फ़िगरेशन में मौजूद आईडी, ग्लोबल आईडी को दिखाते हैं, तो यह फ़ंक्शन सही वैल्यू दिखाता है |
- जब
operand, ऐरे का टपल होता है, तो टपल के हर एलिमेंट पर ऑल-रिड्यूस ऑपरेशन किया जाता है. replica_groups, रेप्लिका ग्रुप की एक सूची है. इसमें उन रेप्लिका ग्रुप के बारे में बताया जाता है जिनके बीच में कमी की जाती है. मौजूदा रेप्लिका का रेप्लिका आईडी,ReplicaIdका इस्तेमाल करके वापस पाया जा सकता है.replica_groupsया तो खाली होना चाहिए (इस मामले में सभी रेप्लिका एक ही ग्रुप से जुड़े होते हैं) या इसमें रेप्लिका की संख्या के बराबर एलिमेंट होने चाहिए. उदाहरण के लिए,replica_groups = {0, 2}, {1, 3}, रेप्लिका0और2के साथ-साथ1और3के बीच रिडक्शन करता है.channel_idका इस्तेमाल क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए किया जाता है: सिर्फ़ एक जैसेchannel_idवालेall-reduceएक-दूसरे से कम्यूनिकेट कर सकते हैं.shape_with_layout: इससे AllReduce के लेआउट को दिए गए लेआउट पर सेट किया जाता है. इसका इस्तेमाल, अलग-अलग कंपाइल किए गए AllReduce ऑपरेशनों के ग्रुप के लिए एक ही लेआउट की गारंटी देने के लिए किया जाता है.use_global_device_idsअगर ReplicaGroup कॉन्फ़िगरेशन में मौजूद आईडी, रेप्लिका आईडी के बजाय (replica_id * partition_count + partition_id) के ग्लोबल आईडी को दिखाते हैं, तो यह फ़ंक्शन सही वैल्यू दिखाता है. अगर यह ऑल-रिड्यूस, क्रॉस-पार्टिशन और क्रॉस-रेप्लिका, दोनों है, तो इससे डिवाइसों को ज़्यादा आसानी से ग्रुप किया जा सकता है.
आउटपुट का आकार, इनपुट के आकार जैसा ही होता है. उदाहरण के लिए, अगर दो रेप्लिका हैं और ऑपरेंड की वैल्यू, दोनों रेप्लिका पर क्रमशः [1.0, 2.5] और [3.0, 5.25] है, तो इस ऑप और समेशन कंप्यूटेशन से मिलने वाली आउटपुट वैल्यू, दोनों रेप्लिका पर [4.0, 7.75] होगी. अगर इनपुट एक टपल है, तो आउटपुट भी एक टपल होगा.
AllReduce का नतीजा पाने के लिए, हर रेप्लिका से एक इनपुट होना ज़रूरी है. इसलिए, अगर कोई रेप्लिका किसी AllReduce नोड को दूसरी रेप्लिका से ज़्यादा बार एक्ज़ीक्यूट करती है, तो पहली रेप्लिका हमेशा इंतज़ार करती रहेगी. सभी रेप्लिका एक ही प्रोग्राम चला रहे हैं. इसलिए, ऐसा होने की कई वजहें नहीं हैं. हालांकि, ऐसा तब हो सकता है, जब किसी while लूप की शर्त infeed से मिले डेटा पर निर्भर करती हो और infeed से मिले डेटा की वजह से, while लूप एक रेप्लिका पर दूसरी रेप्लिका की तुलना में ज़्यादा बार दोहराता हो.
AllReduce के एपीआई को अंदरूनी तौर पर दो एचएलओ निर्देशों (AllReduceStart और AllReduceDone) में बांटा गया है.
HloInstruction::CreateAllReduceStart भी देखें.
AllReduceStart और AllReduceDone, HLO में प्रिमिटिव के तौर पर काम करते हैं. ये ऑप्स, एचएलओ डंप में दिख सकते हैं. हालांकि, इन्हें उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
CrossReplicaSum
XlaBuilder::CrossReplicaSum भी देखें.
यह फ़ंक्शन, जोड़ के हिसाब से AllReduce करता है.
CrossReplicaSum(operand, replica_groups)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp | ऐरे या ऐरे का नॉन-एम्टी टपल, जिसे रेप्लिका में कम करना है |
replica_groups
|
वेक्टर का वेक्टर
int64 |
जिन ग्रुप के बीच में कमी की गई है |
यह रेप्लिका के हर सबग्रुप में, ऑपरेंड वैल्यू का योग दिखाता है. सभी रेप्लिका, योग के लिए एक इनपुट देती हैं. साथ ही, सभी रेप्लिका को हर सबग्रुप के लिए, योग का नतीजा मिलता है.
AllToAll
XlaBuilder::AllToAll भी देखें.
AllToAll एक सामूहिक ऑपरेशन है. यह सभी कोर से सभी कोर को डेटा भेजता है. इसके दो फ़ेज़ होते हैं:
- स्कैटर फ़ेज़. हर कोर पर, ऑपरेंड को
split_countब्लॉक की संख्या में बांटा जाता है.ये ब्लॉक,split_dimensionsके साथ-साथ सभी कोर में बिखरे होते हैं. उदाहरण के लिए, i-वें ब्लॉक को i-वें कोर पर भेजा जाता है. - इकट्ठा करने का फ़ेज़. हर कोर, मिले हुए ब्लॉक को
concat_dimensionके साथ जोड़ता है.
इन कोर को इन तरीकों से कॉन्फ़िगर किया जा सकता है:
replica_groups: हर ReplicaGroup में, कंप्यूटेशन में हिस्सा लेने वाले रेप्लिका आईडी की सूची होती है. मौजूदा रेप्लिका के लिए रेप्लिका आईडी कोReplicaIdका इस्तेमाल करके वापस पाया जा सकता है. AllToAll को तय किए गए क्रम में, सबग्रुप में लागू किया जाएगा. उदाहरण के लिए,replica_groups = { {1,2,3}, {4,5,0} }का मतलब है कि रेप्लिका{1, 2, 3}और गैदर फ़ेज़ में AllToAll लागू किया जाएगा. साथ ही, मिले हुए ब्लॉक को 1, 2, 3 के क्रम में जोड़ा जाएगा. इसके बाद, रेप्लिका 4, 5, 0 पर एक और AllToAll लागू किया जाएगा. साथ ही, कॉनकैटेनेशन का क्रम भी 4, 5, 0 होगा. अगरreplica_groupsखाली है, तो सभी रेप्लिका एक ही ग्रुप से जुड़े होते हैं. ये रेप्लिका, उनके दिखने के क्रम में होते हैं.
ज़रूरी शर्तें:
split_dimensionपर मौजूद ऑपरेंड का डाइमेंशन साइज़,split_countसे भाग दिया जा सकता है.- ऑपरेंड का शेप टपल नहीं है.
AllToAll(operand, split_dimension, concat_dimension, split_count,
replica_groups, layout, channel_id)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
n डाइमेंशन वाला इनपुट अरे |
split_dimension
|
int64
|
इंटरवल [0,n) में मौजूद वैल्यू, जो उस डाइमेंशन का नाम बताती है जिसके हिसाब से ऑपरेंड को बांटा जाता है |
concat_dimension
|
int64
|
इंटरवल [0,n) में मौजूद वैल्यू, जो उस डाइमेंशन का नाम बताती है जिसके हिसाब से स्प्लिट ब्लॉक को एक साथ जोड़ा जाता है |
split_count
|
int64
|
इस ऑपरेशन में हिस्सा लेने वाले कोर की संख्या. अगर replica_groups खाली है, तो यह रेप्लिका की संख्या होनी चाहिए. अगर ऐसा नहीं है, तो यह हर ग्रुप में रेप्लिका की संख्या के बराबर होनी चाहिए. |
replica_groups
|
ReplicaGroupवेक्टर
|
हर ग्रुप में रेप्लिका आईडी की सूची होती है. |
layout |
ज़रूरी नहीं Layout |
उपयोगकर्ता के हिसाब से तय किया गया मेमोरी लेआउट |
channel_id
|
ज़रूरी नहीं ChannelHandle
|
हर सेंड/रीसीव पेयर के लिए यूनीक आइडेंटिफ़ायर |
शेप और लेआउट के बारे में ज़्यादा जानने के लिए, xla::shapes देखें..
StableHLO के बारे में जानकारी के लिए, StableHLO - all_to_all देखें.
AllToAll - पहला उदाहरण.
XlaBuilder b("alltoall");
auto x = Parameter(&b, 0, ShapeUtil::MakeShape(F32, {4, 16}), "x");
AllToAll(
x,
/*split_dimension=*/ 1,
/*concat_dimension=*/ 0,
/*split_count=*/ 4);

ऊपर दिए गए उदाहरण में, Alltoall में चार कोर शामिल हैं. हर कोर पर, ऑपरेंड को डाइमेंशन 1 के हिसाब से चार हिस्सों में बांटा जाता है. इसलिए, हर हिस्से का आकार f32[4,4] होता है. चारों हिस्सों को सभी कोर में बांट दिया जाता है. इसके बाद, हर कोर को डाइमेंशन 0 के साथ मिले हुए हिस्सों को कोर 0-4 के क्रम में जोड़ता है. इसलिए, हर कोर पर आउटपुट का आकार f32[16,4] होता है.
AllToAll - दूसरा उदाहरण - StableHLO
ऊपर दिए गए उदाहरण में, AllToAll में दो रेप्लिका हिस्सा ले रहे हैं. हर रेप्लिका पर, ऑपरेंड का आकार f32[2,4] होता है. ऑपरेंड को डाइमेंशन 1 के हिसाब से दो हिस्सों में बांटा गया है. इसलिए, हर हिस्से का आकार f32[2,2] है. इसके बाद, रेप्लिका ग्रुप में उनकी जगह के हिसाब से, दोनों हिस्सों को रेप्लिका के बीच बदला जाता है. हर रेप्लिका, दोनों ऑपरेंड से अपना हिस्सा इकट्ठा करती है और उन्हें डाइमेंशन 0 के साथ जोड़ती है. इस वजह से, हर रेप्लिका पर आउटपुट का आकार f32[4,2] होता है.
RaggedAllToAll
XlaBuilder::RaggedAllToAll भी देखें.
RaggedAllToAll, सभी-से-सभी के लिए एक साथ काम करता है. इसमें इनपुट और आउटपुट, रैग्ड टेंसर होते हैं.
RaggedAllToAll(input, input_offsets, send_sizes, output, output_offsets,
recv_sizes, replica_groups, channel_id)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
input |
XlaOp |
T टाइप का N अरे |
input_offsets |
XlaOp |
T टाइप का N अरे |
send_sizes |
XlaOp |
T टाइप का N अरे |
output |
XlaOp |
T टाइप का N अरे |
output_offsets |
XlaOp |
T टाइप का N अरे |
recv_sizes |
XlaOp |
T टाइप का N अरे |
replica_groups
|
ReplicaGroup वेक्टर
|
हर ग्रुप में रेप्लिका आईडी की सूची होती है. |
channel_id
|
ज़रूरी नहीं ChannelHandle
|
हर सेंड/रीसीव पेयर के लिए यूनीक आइडेंटिफ़ायर |
रैग्ड टेंसर को तीन टेंसर के सेट से तय किया जाता है:
data:dataटेंसर, सबसे बाहरी डाइमेंशन के साथ “रैग्ड” होता है. इसके साथ ही, इंडेक्स किए गए हर एलिमेंट का साइज़ अलग-अलग होता है.offsets':offsetsटेंसर,dataटेंसर के सबसे बाहरी डाइमेंशन को इंडेक्स करता है. साथ ही, यहdataटेंसर के हर रैग्ड एलिमेंट के शुरुआती ऑफ़सेट को दिखाता है.sizes:sizesटेंसर,dataटेंसर के हर रैग्ड एलिमेंट के साइज़ को दिखाता है. साइज़ को सब-एलिमेंट की इकाइयों में बताया जाता है. सब-एलिमेंट को ‘data’ टेंसर शेप के प्रत्यय के तौर पर तय किया जाता है. इसे सबसे बाहरी “रैग्ड” डाइमेंशन को हटाकर हासिल किया जाता है.offsetsऔरsizesटेंसर का साइज़ एक जैसा होना चाहिए.
अनियमित टेंसर का उदाहरण:
data: [8,3] =
{ {a,b,c},{d,e,f},{g,h,i},{j,k,l},{m,n,o},{p,q,r},{s,t,u},{v,w,x} }
offsets: [3] = {0, 1, 4}
sizes: [3] = {1, 3, 4}
// Index 'data' at 'offsets'[0], 'sizes'[0]' // {a,b,c}
// Index 'data' at 'offsets'[1], 'sizes'[1]' // {d,e,f},{g,h,i},{j,k,l}
// Index 'data' at 'offsets'[2], 'sizes'[2]' // {m,n,o},{p,q,r},{s,t,u},{v,w,x}
output_offsets को इस तरह से शार्ड किया जाना चाहिए कि हर रेप्लिका में, टारगेट रेप्लिका आउटपुट पर्सपेक्टिव में ऑफ़सेट हों.
i-th आउटपुट ऑफ़सेट के लिए, मौजूदा रेप्लिका i-th रेप्लिका को input[input_offsets[i]:input_offsets[i]+input_sizes[i]] अपडेट भेजेगा. इसे i-th रेप्लिका output में output_i[output_offsets[i]:output_offsets[i]+send_sizes[i]] में लिखा जाएगा.
उदाहरण के लिए, अगर हमारे पास दो रेप्लिका हैं, तो:
replica 0:
input: [1, 2, 2]
output:[0, 0, 0, 0]
input_offsets: [0, 1]
send_sizes: [1, 2]
output_offsets: [0, 0]
recv_sizes: [1, 1]
replica 1:
input: [3, 4, 0]
output: [0, 0, 0, 0]
input_offsets: [0, 1]
send_sizes: [1, 1]
output_offsets: [1, 2]
recv_sizes: [2, 1]
// replica 0's result will be: [1, 3, 0, 0]
// replica 1's result will be: [2, 2, 4, 0]
रैग्ड ऑल-टू-ऑल एचएलओ में ये आर्ग्युमेंट होते हैं:
input: इनपुट डेटा का रैग्ड टेंसर.output: रैग्ड आउटपुट डेटा टेंसर.input_offsets: यह इनपुट ऑफ़सेट का रैग्ड टेंसर है.send_sizes: रैग्ड सेंड साइज़ टेंसर.output_offsets: टारगेट रेप्लिका आउटपुट में रैग्ड ऑफ़सेट का कलेक्शन.recv_sizes: ragged recv sizes tensor.
*_offsets और *_sizes टेंसर का आकार एक जैसा होना चाहिए.
*_offsets और *_sizes टेंसर के लिए, दो तरह के आकार इस्तेमाल किए जा सकते हैं:
[num_devices]जहां रैग्ड-ऑल-टू-ऑल, रेप्लिका ग्रुप में मौजूद हर रिमोट डिवाइस को ज़्यादा से ज़्यादा एक अपडेट भेज सकता है. उदाहरण के लिए:
for (remote_device_id : replica_group) {
SEND input[input_offsets[remote_device_id]],
output[output_offsets[remote_device_id]],
send_sizes[remote_device_id] }
[num_devices, num_updates]जहां रैग्ड-ऑल-टू-ऑल, रेप्लिका ग्रुप में मौजूद हर रिमोट डिवाइस के लिए, एक ही रिमोट डिवाइस को ज़्यादा से ज़्यादाnum_updatesअपडेट भेज सकता है. हर अपडेट अलग-अलग ऑफ़सेट पर भेजा जाता है.
उदाहरण के लिए:
for (remote_device_id : replica_group) {
for (update_idx : num_updates) {
SEND input[input_offsets[remote_device_id][update_idx]],
output[output_offsets[remote_device_id][update_idx]]],
send_sizes[remote_device_id][update_idx] } }
और
XlaBuilder::And भी देखें.
यह फ़ंक्शन, दो टेंसर lhs और rhs के हर एलिमेंट के लिए AND ऑपरेशन करता है.
And(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
And के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
And(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - and देखें.
Async
HloInstruction::CreateAsyncStart,
HloInstruction::CreateAsyncUpdate,
HloInstruction::CreateAsyncDone भी देखें.
AsyncDone, AsyncStart, और AsyncUpdate, HLO के इंटरनल निर्देश हैं. इनका इस्तेमाल एसिंक्रोनस ऑपरेशनों के लिए किया जाता है. साथ ही, ये HLO में प्रिमिटिव के तौर पर काम करते हैं. ये ऑप्स, एचएलओ डंप में दिख सकते हैं. हालांकि, इन्हें उपयोगकर्ताओं को मैन्युअल तरीके से नहीं बनाना चाहिए.
Atan2
XlaBuilder::Atan2 भी देखें.
यह फ़ंक्शन, lhs और rhs पर हर एलिमेंट के हिसाब से atan2 ऑपरेशन करता है.
Atan2(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Atan2 के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा वाला एक वैकल्पिक वैरिएंट उपलब्ध है:
Atan2(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - atan2 देखें.
BatchNormGrad
एल्गोरिदम के बारे में ज़्यादा जानकारी के लिए, XlaBuilder::BatchNormGrad और बैच नॉर्मलाइज़ेशन से जुड़ा ओरिजनल पेपर भी देखें.
यह फ़ंक्शन, बैच नॉर्म के ग्रेडिएंट का हिसाब लगाता है.
BatchNormGrad(operand, scale, batch_mean, batch_var, grad_output, epsilon,
feature_index)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp | सामान्य बनाने के लिए n डाइमेंशन वाला ऐरे (x) |
scale |
XlaOp | एक डाइमेंशन वाला ऐरे (\(\gamma\)) |
batch_mean |
XlaOp | एक डाइमेंशन वाला ऐरे (\(\mu\)) |
batch_var |
XlaOp | एक डाइमेंशन वाला ऐरे (\(\sigma^2\)) |
grad_output |
XlaOp | BatchNormTraining (\(\nabla y\)) को पास किए गए ग्रेडिएंट |
epsilon |
float |
एप्सिलॉन वैल्यू (\(\epsilon\)) |
feature_index |
int64 |
operand में डाइमेंशन दिखाने के लिए इंडेक्स |
फ़ीचर डाइमेंशन (operand में फ़ीचर डाइमेंशन का इंडेक्स feature_index है) में मौजूद हर फ़ीचर के लिए, यह ऑपरेशन operand, offset, और scale के हिसाब से ग्रेडिएंट का हिसाब लगाता है. यह हिसाब, अन्य सभी डाइमेंशन के लिए लगाया जाता है. feature_index, operand में मौजूद फ़ीचर डाइमेंशन के लिए एक मान्य इंडेक्स होना चाहिए.
इन तीन ग्रेडिएंट को इन फ़ॉर्मूलों से तय किया जाता है. इसमें operand को चार डाइमेंशन वाला ऐरे माना गया है. साथ ही, फ़ीचर डाइमेंशन इंडेक्स l, बैच साइज़ m, और स्पेशल साइज़ w और h को माना गया है:
\[ \begin{split} c_l&= \frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \left( \nabla y_{ijkl} \frac{x_{ijkl} - \mu_l}{\sigma^2_l+\epsilon} \right) \\\\ d_l&= \frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \nabla y_{ijkl} \\\\ \nabla x_{ijkl} &= \frac{\gamma_{l} }{\sqrt{\sigma^2_{l}+\epsilon} } \left( \nabla y_{ijkl} - d_l - c_l (x_{ijkl} - \mu_{l}) \right) \\\\ \nabla \gamma_l &= \sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \left( \nabla y_{ijkl} \frac{x_{ijkl} - \mu_l}{\sqrt{\sigma^2_{l}+\epsilon} } \right) \\\\\ \nabla \beta_l &= \sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \nabla y_{ijkl} \end{split} \]
इनपुट batch_mean और batch_var, बैच और स्पेशल डाइमेंशन में मोमेंट की वैल्यू दिखाते हैं.
आउटपुट टाइप, तीन हैंडल का टपल होता है:
| आउटपुट | टाइप | सिमैंटिक |
|---|---|---|
grad_operand
|
XlaOp | इनपुट operand के हिसाब से ग्रेडिएंट
(\(\nabla x\)) |
grad_scale
|
XlaOp | इनपुट **scale ** के हिसाब से ग्रेडिएंट
(\(\nabla\gamma\)) |
grad_offset
|
XlaOp | इनपुट के हिसाब से ग्रेडिएंट
offset(\(\nabla\beta\)) |
StableHLO के बारे में जानकारी के लिए, StableHLO - batch_norm_grad देखें.
BatchNormInference
एल्गोरिदम के बारे में ज़्यादा जानकारी के लिए, XlaBuilder::BatchNormInference और बैच नॉर्मलाइज़ेशन से जुड़ा ओरिजनल पेपर भी देखें.
यह फ़ंक्शन, बैच और स्पेशल डाइमेंशन के हिसाब से किसी ऐरे को नॉर्मलाइज़ करता है.
BatchNormInference(operand, scale, offset, mean, variance, epsilon,
feature_index)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp | सामान्य बनाने के लिए n डाइमेंशन वाला ऐरे |
scale |
XlaOp | एक डाइमेंशन वाला अरे |
offset |
XlaOp | एक डाइमेंशन वाला अरे |
mean |
XlaOp | एक डाइमेंशन वाला अरे |
variance |
XlaOp | एक डाइमेंशन वाला अरे |
epsilon |
float |
एप्सिलॉन वैल्यू |
feature_index |
int64 |
operand में डाइमेंशन दिखाने के लिए इंडेक्स |
फ़ंक्शन, फ़ीचर डाइमेंशन (feature_index, operand में फ़ीचर डाइमेंशन का इंडेक्स है) की हर फ़ीचर के लिए, अन्य सभी डाइमेंशन के हिसाब से औसत और वैरिएंस का हिसाब लगाता है. इसके बाद, औसत और वैरिएंस का इस्तेमाल करके, operand के हर एलिमेंट को सामान्य करता है. feature_index, operand में मौजूद सुविधा डाइमेंशन के लिए एक मान्य इंडेक्स होना चाहिए.
BatchNormInference, हर बैच के लिए mean और variance की गिनती किए बिना BatchNormTraining को कॉल करने के बराबर होता है. यह अनुमानित वैल्यू के तौर पर, इनपुट mean और variance का इस्तेमाल करता है. इस विकल्प का मकसद, अनुमान लगाने में लगने वाले समय को कम करना है. इसलिए, इसका नाम BatchNormInference है.
आउटपुट, n डाइमेंशन वाला एक नॉर्मलाइज़ किया गया ऐरे होता है. इसका आकार, इनपुट operand के आकार जैसा होता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - batch_norm_inference देखें.
BatchNormTraining
एल्गोरिदम के बारे में ज़्यादा जानकारी के लिए, XlaBuilder::BatchNormTraining और the original batch normalization paper भी देखें.
यह फ़ंक्शन, बैच और स्पेशल डाइमेंशन के हिसाब से किसी ऐरे को नॉर्मलाइज़ करता है.
BatchNormTraining(operand, scale, offset, epsilon, feature_index)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
सामान्य बनाने के लिए n डाइमेंशन वाला ऐरे (x) |
scale |
XlaOp |
एक डाइमेंशन वाला ऐरे (\(\gamma\)) |
offset |
XlaOp |
एक डाइमेंशन वाला ऐरे (\(\beta\)) |
epsilon |
float |
एप्सिलॉन वैल्यू (\(\epsilon\)) |
feature_index |
int64 |
operand में डाइमेंशन दिखाने के लिए इंडेक्स |
फ़ंक्शन, फ़ीचर डाइमेंशन (feature_index, operand में फ़ीचर डाइमेंशन का इंडेक्स है) की हर फ़ीचर के लिए, अन्य सभी डाइमेंशन के हिसाब से औसत और वैरिएंस का हिसाब लगाता है. इसके बाद, औसत और वैरिएंस का इस्तेमाल करके, operand के हर एलिमेंट को सामान्य करता है. feature_index, operand में मौजूद सुविधा डाइमेंशन के लिए एक मान्य इंडेक्स होना चाहिए.
operand \(x\) में मौजूद हर बैच के लिए, एल्गोरिदम इस तरह काम करता है. इस बैच में m एलिमेंट होते हैं. साथ ही, इसमें w और h को स्पेस डाइमेंशन के साइज़ के तौर पर इस्तेमाल किया जाता है. मान लें कि operand एक चार डाइमेंशन वाला कलेक्शन है:
यह फ़ीचर डाइमेंशन में मौजूद हर फ़ीचर
lके लिए, बैच का औसत \(\mu_l\) कैलकुलेट करता है: \(\mu_l=\frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h x_{ijkl}\)बैच वैरिएंस का हिसाब लगाता है \(\sigma^2_l\): $\sigma^2l=\frac{1}{mwh}\sum{i=1}^m\sum{j=1}^w\sum{k=1}^h (x_{ijkl} - \mu_l)^2$
सामान्य बनाता है, स्केल करता है, और बदलता है: \(y_{ijkl}=\frac{\gamma_l(x_{ijkl}-\mu_l)}{\sqrt[2]{\sigma^2_l+\epsilon} }+\beta_l\)
एपसिलॉन वैल्यू, आम तौर पर एक छोटी संख्या होती है. इसे शून्य से भाग देने पर होने वाली गड़बड़ियों से बचने के लिए जोड़ा जाता है.
आउटपुट टाइप, तीन XlaOp का टपल होता है:
| आउटपुट | टाइप | सिमैंटिक |
|---|---|---|
output
|
XlaOp
|
n डाइमेंशन वाली ऐसी सारणी जिसका आकार, इनपुट operand (y) के जैसा हो |
batch_mean |
XlaOp |
एक डाइमेंशन वाला ऐरे (\(\mu\)) |
batch_var |
XlaOp |
एक डाइमेंशन वाला ऐरे (\(\sigma^2\)) |
batch_mean और batch_var, बैच और स्पेशल डाइमेंशन के हिसाब से कैलकुलेट किए गए मोमेंट हैं. इन्हें ऊपर दिए गए फ़ॉर्मूले का इस्तेमाल करके कैलकुलेट किया जाता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - batch_norm_training देखें.
Bitcast
HloInstruction::CreateBitcast भी देखें.
Bitcast, एचएलओ डंप में दिख सकते हैं. हालांकि, असली उपयोगकर्ताओं को इन्हें मैन्युअल तरीके से बनाने की अनुमति नहीं है.
BitcastConvertType
XlaBuilder::BitcastConvertType भी देखें.
TensorFlow में tf.bitcast की तरह, यह फ़ंक्शन डेटा शेप से टारगेट शेप में एलिमेंट-वाइज़ बिटकास्ट ऑपरेशन करता है. इनपुट और आउटपुट का साइज़ एक जैसा होना चाहिए: उदाहरण के लिए, बिटकास्ट रूटीन के ज़रिए s32 एलिमेंट, f32 एलिमेंट बन जाते हैं. साथ ही, एक s32 एलिमेंट, चार s8 एलिमेंट बन जाएगा. Bitcast को लो-लेवल कास्ट के तौर पर लागू किया जाता है. इसलिए, फ़्लोटिंग-पॉइंट के अलग-अलग वर्शन वाली मशीनें अलग-अलग नतीजे देंगी.
BitcastConvertType(operand, new_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
D डाइमेंशन वाला T टाइप का ऐरे |
new_element_type |
PrimitiveType |
टाइप U |
ऑपरेंड और टारगेट शेप के डाइमेंशन मेल खाने चाहिए. हालांकि, आखिरी डाइमेंशन में बदलाव होगा. यह बदलाव, कन्वर्ज़न से पहले और बाद में प्रिमिटिव के साइज़ के अनुपात के हिसाब से होगा.
सोर्स और डेस्टिनेशन एलिमेंट के टाइप, टपल नहीं होने चाहिए.
StableHLO के बारे में जानकारी के लिए, StableHLO - bitcast_convert देखें.
बिटकास्ट-कन्वर्टिंग से अलग चौड़ाई वाले प्रिमिटिव टाइप में बदलना
BitcastConvert HLO निर्देश, ऐसे मामले में काम करता है जहां आउटपुट एलिमेंट टाइप T' का साइज़, इनपुट एलिमेंट T के साइज़ के बराबर नहीं होता. पूरा ऑपरेशन कॉन्सेप्ट के हिसाब से बिटकास्ट है और इससे बाइट में कोई बदलाव नहीं होता. इसलिए, आउटपुट एलिमेंट का शेप बदलना होगा. B = sizeof(T), B' =
sizeof(T') के लिए, दो संभावित मामले हैं.
सबसे पहले, जब B > B', तो आउटपुट शेप को B/B' साइज़ का नया सबसे छोटा डाइमेंशन मिलता है. उदाहरण के लिए:
f16[10,2]{1,0} %output = f16[10,2]{1,0} bitcast-convert(f32[10]{0} %input)
स्केलर के लिए, नियम पहले जैसा ही रहता है:
f16[2]{0} %output = f16[2]{0} bitcast-convert(f32[] %input)
इसके अलावा, B' > B के लिए निर्देश में, इनपुट शेप के आखिरी लॉजिकल डाइमेंशन को B'/B के बराबर होना चाहिए. साथ ही, कन्वर्ज़न के दौरान इस डाइमेंशन को हटा दिया जाता है:
f32[10]{0} %output = f32[10]{0} bitcast-convert(f16[10,2]{1,0} %input)
ध्यान दें कि अलग-अलग बिटविड्थ के बीच कन्वर्ज़न, एलिमेंट के हिसाब से नहीं होते हैं.
ब्रॉडकास्ट करें
XlaBuilder::Broadcast भी देखें.
यह फ़ंक्शन, किसी ऐरे में डाइमेंशन जोड़ता है. इसके लिए, ऐरे में मौजूद डेटा को डुप्लीकेट किया जाता है.
Broadcast(operand, broadcast_sizes)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
डुप्लीकेट करने के लिए ऐरे |
broadcast_sizes |
ArraySlice<int64> |
नए डाइमेंशन के साइज़ |
नए डाइमेंशन बाईं ओर डाले जाते हैं. इसका मतलब है कि अगर broadcast_sizes में {a0, ..., aN} वैल्यू हैं और ऑपरेंड शेप में {b0, ..., bM} डाइमेंशन हैं, तो आउटपुट शेप में {a0, ..., aN, b0, ..., bM} डाइमेंशन होंगे.
नए डाइमेंशन, ऑपरेंड की कॉपी में इंडेक्स किए जाते हैं. इसका मतलब है कि
output[i0, ..., iN, j0, ..., jM] = operand[j0, ..., jM]
उदाहरण के लिए, अगर operand एक स्केलर f32 है, जिसकी वैल्यू 2.0f है और broadcast_sizes, {2, 3} है, तो नतीजे में f32[2, 3] शेप वाली एक सरणी मिलेगी. साथ ही, नतीजे में मौजूद सभी वैल्यू 2.0f होंगी.
StableHLO के बारे में जानकारी के लिए, StableHLO - ब्रॉडकास्ट देखें.
BroadcastInDim
XlaBuilder::BroadcastInDim भी देखें.
यह फ़ंक्शन, किसी ऐरे के डाइमेंशन की संख्या और साइज़ को बढ़ाता है. इसके लिए, यह ऐरे में मौजूद डेटा को डुप्लीकेट करता है.
BroadcastInDim(operand, out_dim_size, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
डुप्लीकेट करने के लिए ऐरे |
out_dim_size
|
ArraySlice<int64>
|
टारगेट शेप के डाइमेंशन का साइज़ |
broadcast_dimensions
|
ArraySlice<int64>
|
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
यह ब्रॉडकास्ट की तरह ही काम करता है. हालांकि, इसमें डाइमेंशन को कहीं भी जोड़ा जा सकता है और साइज़ 1 वाले मौजूदा डाइमेंशन को बड़ा किया जा सकता है.
operand को out_dim_size के ज़रिए बताए गए आकार में ब्रॉडकास्ट किया जाता है.
broadcast_dimensions, operand के डाइमेंशन को टारगेट शेप के डाइमेंशन पर मैप करता है. इसका मतलब है कि ऑपरेंड के i-वें डाइमेंशन को आउटपुट शेप के broadcast_dimension[i]-वें डाइमेंशन पर मैप किया जाता है. operand के डाइमेंशन का साइज़ 1 होना चाहिए या आउटपुट शेप में मौजूद डाइमेंशन के साइज़ के बराबर होना चाहिए. बाकी डाइमेंशन, साइज़ 1 वाले डाइमेंशन से भरे जाते हैं. इसके बाद, डिजनरेट-डाइमेंशन ब्रॉडकास्टिंग, इन डिजनरेट डाइमेंशन के साथ ब्रॉडकास्ट करती है, ताकि आउटपुट शेप तक पहुंचा जा सके. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
कॉल करें
XlaBuilder::Call भी देखें.
दिए गए तर्कों के साथ कंप्यूटेशन शुरू करता है.
Call(computation, operands...)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
computation
|
XlaComputation
|
T_0, T_1, ...,
T_{N-1} -> S टाइप के N पैरामीटर की गणना, जिनमें किसी भी टाइप का इस्तेमाल किया जा सकता है |
operands |
N XlaOps का क्रम |
आर्बिट्ररी टाइप के N आर्ग्युमेंट |
operands के आर्ग्युमेंट की संख्या और टाइप, computation के पैरामीटर से मेल खाने चाहिए. operands न होने की अनुमति है.
CompositeCall
XlaBuilder::CompositeCall भी देखें.
यह एक ऐसी कार्रवाई को शामिल करता है जो अन्य StableHLO कार्रवाइयों से बनी होती है. यह इनपुट और composite_attributes लेता है और नतीजे देता है. ऑपरेशन के सिमैंटिक, डीकंपोज़िशन एट्रिब्यूट से लागू होते हैं. कंपोज़िट ऑप को उसके डीकंपोज़िशन से बदला जा सकता है. इससे प्रोग्राम के सिमैंटिक में कोई बदलाव नहीं होता. ऐसे मामलों में जहां डीकंपोज़िशन को इनलाइन करने से, एक जैसी ओप सिमैंटिक नहीं मिलती हैं, वहाँ custom_call का इस्तेमाल करें.
वर्शन फ़ील्ड (डिफ़ॉल्ट रूप से 0) का इस्तेमाल यह बताने के लिए किया जाता है कि कंपोज़िट के सिमैंटिक कब बदलते हैं.
इस ऑप को kCall के तौर पर लागू किया जाता है. इसमें is_composite=true एट्रिब्यूट होता है. decomposition फ़ील्ड को computation एट्रिब्यूट से तय किया जाता है. फ़्रंटएंड एट्रिब्यूट, composite. से पहले जोड़े गए बाकी एट्रिब्यूट को सेव करते हैं.
CompositeCall ऑप का उदाहरण:
f32[] call(f32[] %cst), to_apply=%computation, is_composite=true,
frontend_attributes = {
composite.name="foo.bar",
composite.attributes={n = 1 : i32, tensor = dense<1> : tensor<i32>},
composite.version="1"
}
CompositeCall(computation, operands..., name, attributes, version)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
computation
|
XlaComputation
|
T_0, T_1, ...,
T_{N-1} -> S टाइप के N पैरामीटर की गणना, जिनमें किसी भी टाइप का इस्तेमाल किया जा सकता है |
operands |
N XlaOps का क्रम |
वैल्यू की अलग-अलग संख्या |
name |
string |
कंपोज़िट का नाम |
attributes
|
ज़रूरी नहीं string
|
एट्रिब्यूट का स्ट्रिंगिफ़ाइड डिक्शनरी (ज़रूरी नहीं) |
version
|
ज़रूरी नहीं int64
|
वर्शन अपडेट करने के लिए नंबर कंपोज़िट ऑप के सिमैंटिक |
ऑपरेशन का decomposition, कॉल किया गया फ़ील्ड नहीं है. इसके बजाय, यह to_apply एट्रिब्यूट के तौर पर दिखता है. यह उस फ़ंक्शन की ओर इशारा करता है जिसमें लोअर-लेवल का इंप्लीमेंटेशन होता है. जैसे, to_apply=%funcname
कंपोज़िट और डीकंपोज़िशन के बारे में ज़्यादा जानकारी, StableHLO स्पेसिफ़िकेशन में देखी जा सकती है.
Cbrt
XlaBuilder::Cbrt भी देखें.
हर एलिमेंट का घनमूल निकालने की कार्रवाई x -> cbrt(x).
Cbrt(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Cbrt फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Cbrt(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - cbrt देखें.
राउंड अप
XlaBuilder::Ceil भी देखें.
हर एलिमेंट के लिए सीलिंग x -> ⌈x⌉.
Ceil(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - ceil देखें.
Cholesky
XlaBuilder::Cholesky भी देखें.
यह फ़ंक्शन, सिमेट्रिक (हर्मिटियन) पॉज़िटिव डेफिनिट मैट्रिक्स के बैच के कोलेस्की डिकंपोज़िशन की गणना करता है.
Cholesky(a, lower)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
a
|
XlaOp
|
दो से ज़्यादा डाइमेंशन वाला कॉम्प्लेक्स या फ़्लोटिंग-पॉइंट टाइप का ऐरे. |
lower |
bool |
a के ऊपरी या निचले त्रिकोण का इस्तेमाल करना है या नहीं. |
अगर lower true है, तो लोअर-ट्रायंगलर मैट्रिक्स l का हिसाब लगाता है, ताकि $a = l .
l^T$. अगर lower false है, तो u अपर-ट्रायंगलर मैट्रिक्स का हिसाब लगाता है, ताकि
\(a = u^T . u\).
इनपुट डेटा को a के सिर्फ़ निचले/ऊपरी त्रिकोण से पढ़ा जाता है. यह lower की वैल्यू पर निर्भर करता है. दूसरे ट्रायंगल की वैल्यू को अनदेखा कर दिया जाता है. आउटपुट डेटा को उसी ट्राएंगल में दिखाया जाता है. दूसरे ट्राएंगल में मौजूद वैल्यू, लागू करने के तरीके के हिसाब से तय होती हैं और कुछ भी हो सकती हैं.
अगर a में दो से ज़्यादा डाइमेंशन हैं, तो a को मैट्रिक्स के बैच के तौर पर माना जाता है. इसमें, दो माइनर डाइमेंशन को छोड़कर बाकी सभी डाइमेंशन, बैच डाइमेंशन होते हैं.
अगर a सिमेट्रिक (हर्मिटियन) पॉज़िटिव डेफिनिट नहीं है, तो नतीजा लागू करने के तरीके पर निर्भर करता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - cholesky देखें.
क्लैंप करें
XlaBuilder::Clamp भी देखें.
यह फ़ंक्शन, किसी ऑपरेंड को कम से कम और ज़्यादा से ज़्यादा वैल्यू के बीच की रेंज में सीमित करता है.
Clamp(min, operand, max)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
min |
XlaOp |
टाइप T का कलेक्शन |
operand |
XlaOp |
टाइप T का कलेक्शन |
max |
XlaOp |
टाइप T का कलेक्शन |
ऑपरेंड और कम से कम और ज़्यादा से ज़्यादा वैल्यू दिए जाने पर, अगर ऑपरेंड कम से कम और ज़्यादा से ज़्यादा वैल्यू के बीच की रेंज में है, तो ऑपरेंड दिखाता है. अगर ऑपरेंड इस रेंज से कम है, तो कम से कम वैल्यू दिखाता है. अगर ऑपरेंड इस रेंज से ज़्यादा है, तो ज़्यादा से ज़्यादा वैल्यू दिखाता है. इसका मतलब है कि clamp(a, x, b) = min(max(a, x), b).
तीनों ऐरे का साइज़ एक जैसा होना चाहिए. इसके अलावा, ब्रॉडकास्टिंग के प्रतिबंधित फ़ॉर्म के तौर पर, min और/या max, T टाइप का स्केलर हो सकता है.
स्केलर min और max का उदाहरण:
let operand: s32[3] = {-1, 5, 9};
let min: s32 = 0;
let max: s32 = 6;
==>
Clamp(min, operand, max) = s32[3]{0, 5, 6};
StableHLO के बारे में जानकारी के लिए, StableHLO - clamp देखें.
छोटा करें
XlaBuilder::Collapse भी देखें.
और tf.reshape ऑपरेशन.
यह फ़ंक्शन, किसी ऐरे के डाइमेंशन को एक डाइमेंशन में बदल देता है.
Collapse(operand, dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
टाइप T का कलेक्शन |
dimensions |
int64 वेक्टर |
टी के डाइमेंशन का क्रम से लगा हुआ सबसेट है. |
Collapse, ऑपरेंड के डाइमेंशन के दिए गए सबसेट को एक डाइमेंशन से बदलता है. इनपुट आर्ग्युमेंट, T टाइप का आर्बिट्ररी अरे और डाइमेंशन इंडेक्स का कंपाइल-टाइम-कॉन्स्टेंट वेक्टर होता है. डाइमेंशन इंडेक्स, T के डाइमेंशन का क्रम से लगा हुआ सबसेट होना चाहिए. इसमें डाइमेंशन की संख्या कम से ज़्यादा होनी चाहिए. इसलिए, {0, 1, 2}, {0, 1} या {1, 2} सभी मान्य डाइमेंशन सेट हैं, लेकिन {1, 0} या {0, 2} नहीं हैं. इनकी जगह एक नया डाइमेंशन ले लेता है. यह डाइमेंशन, डाइमेंशन के क्रम में उसी जगह पर होता है जहां ये डाइमेंशन थे. नए डाइमेंशन का साइज़, ओरिजनल डाइमेंशन के साइज़ के प्रॉडक्ट के बराबर होता है. dimensions में सबसे कम डाइमेंशन नंबर, लूप नेस्ट में सबसे धीरे-धीरे बदलने वाला डाइमेंशन (सबसे अहम) होता है. यह इन डाइमेंशन को छोटा करता है. वहीं, सबसे ज़्यादा डाइमेंशन नंबर, सबसे तेज़ी से बदलने वाला डाइमेंशन (सबसे कम अहम) होता है. अगर आपको ज़्यादा सामान्य कोलैप्स ऑर्डरिंग की ज़रूरत है, तो tf.reshape ऑपरेटर देखें.
उदाहरण के लिए, मान लें कि v, 24 एलिमेंट की एक शृंखला है:
let v = f32[4x2x3] { { {10, 11, 12}, {15, 16, 17} },
{ {20, 21, 22}, {25, 26, 27} },
{ {30, 31, 32}, {35, 36, 37} },
{ {40, 41, 42}, {45, 46, 47} } };
// Collapse to a single dimension, leaving one dimension.
let v012 = Collapse(v, {0,1,2});
then v012 == f32[24] {10, 11, 12, 15, 16, 17,
20, 21, 22, 25, 26, 27,
30, 31, 32, 35, 36, 37,
40, 41, 42, 45, 46, 47};
// Collapse the two lower dimensions, leaving two dimensions.
let v01 = Collapse(v, {0,1});
then v01 == f32[4x6] { {10, 11, 12, 15, 16, 17},
{20, 21, 22, 25, 26, 27},
{30, 31, 32, 35, 36, 37},
{40, 41, 42, 45, 46, 47} };
// Collapse the two higher dimensions, leaving two dimensions.
let v12 = Collapse(v, {1,2});
then v12 == f32[8x3] { {10, 11, 12},
{15, 16, 17},
{20, 21, 22},
{25, 26, 27},
{30, 31, 32},
{35, 36, 37},
{40, 41, 42},
{45, 46, 47} };
Clz
XlaBuilder::Clz भी देखें.
हर एलिमेंट के लिए, शुरुआती शून्य की गिनती करता है.
Clz(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
CollectiveBroadcast
XlaBuilder::CollectiveBroadcast भी देखें.
यह सभी रेप्लिका में डेटा ब्रॉडकास्ट करता है. हर ग्रुप में, पहले रेप्लिका आईडी से डेटा को उसी ग्रुप के अन्य आईडी में भेजा जाता है. अगर रेप्लिका आईडी किसी रेप्लिका ग्रुप में नहीं है, तो उस रेप्लिका पर आउटपुट एक ऐसा टेंसर होता है जिसमें shape में 0(s) होते हैं.
CollectiveBroadcast(operand, replica_groups, channel_id)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
replica_groups
|
ReplicaGroupवेक्टर
|
हर ग्रुप में रेप्लिका आईडी की सूची होती है |
channel_id
|
ज़रूरी नहीं ChannelHandle
|
हर सेंड/रीसीव पेयर के लिए यूनीक आइडेंटिफ़ायर |
StableHLO के बारे में जानकारी के लिए, StableHLO - collective_broadcast देखें.
CollectivePermute
XlaBuilder::CollectivePermute भी देखें.
CollectivePermute एक सामूहिक ऑपरेशन है. यह रेप्लिका के बीच डेटा भेजता और पाता है.
CollectivePermute(operand, source_target_pairs, channel_id, inplace)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
n डाइमेंशन वाला इनपुट अरे |
source_target_pairs
|
<int64, int64> वेक्टर
|
(source_replica_id, target_replica_id) जोड़े की सूची. हर पेयर के लिए, ऑपरेंड को सोर्स रेप्लिका से टारगेट रेप्लिका में भेजा जाता है. |
channel_id
|
ज़रूरी नहीं ChannelHandle
|
क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए, चैनल आईडी (यह विकल्प है) |
inplace
|
ज़रूरी नहीं bool
|
फ़्लैग से पता चलता है कि क्रमपरिवर्तन को लागू किया जाना चाहिए या नहीं |
ध्यान दें कि source_target_pairs पर ये पाबंदियां लागू होती हैं:
- किसी भी दो पेयर के टारगेट रेप्लिका आईडी एक जैसे नहीं होने चाहिए. साथ ही, उनके सोर्स रेप्लिका आईडी भी एक जैसे नहीं होने चाहिए.
- अगर किसी रेप्लिका आईडी को किसी भी पेयर में टारगेट नहीं किया जाता है, तो उस रेप्लिका पर आउटपुट, इनपुट के जैसे आकार वाला 0(s) का टेंसर होता है.
CollectivePermute ऑपरेशन का एपीआई, अंदरूनी तौर पर दो एचएलओ निर्देशों (CollectivePermuteStart और CollectivePermuteDone) में बंट जाता है.
HloInstruction::CreateCollectivePermuteStart भी देखें.
CollectivePermuteStart और CollectivePermuteDone, HLO में प्रिमिटिव के तौर पर काम करते हैं.
ये ऑप, एचएलओ डंप में दिख सकते हैं. हालांकि, इन्हें उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
StableHLO के बारे में जानकारी के लिए, StableHLO - collective_permute देखें.
तुलना करें
XlaBuilder::Compare भी देखें.
यह फ़ंक्शन, यहां दी गई चीज़ों के lhs और rhs की तुलना करता है:
Eq
XlaBuilder::Eq भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट की तुलना करके यह पता लगाता है कि वे बराबर हैं या नहीं.
\(lhs = rhs\)
Eq(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Eq के लिए, ब्रॉडकास्टिंग की सुविधा के साथ एक वैकल्पिक वैरिएंट उपलब्ध है:
Eq(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
Eq के लिए, फ़्लोटिंग पॉइंट नंबर से ज़्यादा के कुल ऑर्डर का समर्थन किया जाता है. इसके लिए, यह ज़रूरी है:
\[-NaN < -Inf < -Finite < -0 < +0 < +Finite < +Inf < +NaN.\]
EqTotalOrder(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
Ne
XlaBuilder::Ne भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट की तुलना करके यह पता लगाता है कि वे बराबर नहीं हैं.
\(lhs != rhs\)
Ne(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Ne के लिए, अलग-अलग डाइमेंशन वाली ब्रॉडकास्टिंग की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
Ne(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
Ne के लिए, फ़्लोटिंग पॉइंट नंबर से ज़्यादा के कुल ऑर्डर को सपोर्ट किया जाता है. इसके लिए, यह तरीका अपनाया जाता है:
\[-NaN < -Inf < -Finite < -0 < +0 < +Finite < +Inf < +NaN.\]
NeTotalOrder(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
Ge
XlaBuilder::Ge भी देखें.
यह फ़ंक्शन, lhs और rhs की तुलना करके, यह पता लगाता है कि कौनसी वैल्यू greater-or-equal-than.
\(lhs >= rhs\)
Ge(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Ge के लिए, अलग-अलग डाइमेंशन के हिसाब से ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
Ge(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
Gt के लिए, फ़्लोटिंग पॉइंट नंबर से ज़्यादा के कुल ऑर्डर की सुविधा उपलब्ध है. इसके लिए, यह ज़रूरी है कि:
\[-NaN < -Inf < -Finite < -0 < +0 < +Finite < +Inf < +NaN.\]
GtTotalOrder(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
Gt
XlaBuilder::Gt भी देखें.
यह फ़ंक्शन, lhs और rhs की हर वैल्यू की तुलना करके यह पता लगाता है कि कौनसी वैल्यू बड़ी है.
\(lhs > rhs\)
Gt(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Gt के लिए, ब्रॉडकास्ट करने की अलग-अलग डाइमेंशन वाली सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
Gt(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
ले
XlaBuilder::Le भी देखें.
यह फ़ंक्शन, lhs और rhs की हर वैल्यू की तुलना करके यह पता लगाता है कि lhs की वैल्यू, rhs की वैल्यू से less-or-equal-than.
\(lhs <= rhs\)
Le(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Le के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा वाला एक वैकल्पिक वैरिएंट उपलब्ध है:
Le(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
Le के लिए, फ़्लोटिंग पॉइंट नंबर के हिसाब से कुल ऑर्डर की सुविधा उपलब्ध है. इसके लिए, यह तरीका अपनाएं:
\[-NaN < -Inf < -Finite < -0 < +0 < +Finite < +Inf < +NaN.\]
LeTotalOrder(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
Lt
XlaBuilder::Lt भी देखें.
यह फ़ंक्शन, lhs और rhs की तुलना करके, यह पता लगाता है कि कौनसी वैल्यू छोटी है.
\(lhs < rhs\)
Lt(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन का नतीजा, दो इनपुट ऐरे को ब्रॉडकास्ट करने पर मिलने वाले नतीजे के जैसा होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Lt के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा वाला एक वैकल्पिक वैरिएंट मौजूद है:
Lt(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस है. यह ऑपरेंड को ब्रॉडकास्ट करने के लिए इस्तेमाल किए जाने वाले डाइमेंशन के बारे में बताता है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
फ़्लोटिंग पॉइंट नंबर के लिए, Lt की तुलना में ज़्यादा या बराबर होने की शर्त लागू करके, कुल ऑर्डर के लिए सहायता दी जाती है:
\[-NaN < -Inf < -Finite < -0 < +0 < +Finite < +Inf < +NaN.\]
LtTotalOrder(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
StableHLO के बारे में जानकारी के लिए, StableHLO - तुलना करें देखें.
पेचीदा लेवल
XlaBuilder::Complex भी देखें.
यह फ़ंक्शन, lhs और rhs की वास्तविक और काल्पनिक वैल्यू के पेयर को एलिमेंट के हिसाब से कॉम्प्लेक्स वैल्यू में बदलता है.
Complex(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
कॉम्प्लेक्स के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा वाला एक वैकल्पिक वैरिएंट मौजूद है:
Complex(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - complex देखें.
ConcatInDim (Concatenate)
XlaBuilder::ConcatInDim भी देखें.
Concatenate फ़ंक्शन, कई ऐरे ऑपरेंड से एक ऐरे बनाता है. ऐरे में डाइमेंशन की संख्या उतनी ही होती है जितनी इनपुट ऐरे ऑपरेंड में होती है. इनपुट ऐरे ऑपरेंड में डाइमेंशन की संख्या एक-दूसरे के बराबर होनी चाहिए. साथ ही, इसमें आर्ग्युमेंट उसी क्रम में होते हैं जिस क्रम में उन्हें तय किया गया था.
Concatenate(operands..., dimension)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands
|
N XlaOp का क्रम
|
डाइमेंशन [L0, L1, ...] वाले T टाइप के N ऐरे. इसके लिए, N >= 1 होना ज़रूरी है. |
dimension
|
int64
|
[0, N) के बीच में मौजूद [0, N) इंटरवल में मौजूद कोई वैल्यू. यह वैल्यू, उस डाइमेंशन का नाम बताती है जिसे जोड़ना है.operands |
dimension को छोड़कर, सभी डाइमेंशन एक जैसे होने चाहिए. ऐसा इसलिए है, क्योंकि XLA "रैग्ड" ऐरे के साथ काम नहीं करता. यह भी ध्यान दें कि शून्य डाइमेंशन वाली वैल्यू को एक साथ नहीं जोड़ा जा सकता. ऐसा इसलिए, क्योंकि उस डाइमेंशन का नाम नहीं दिया जा सकता जिसके हिसाब से वैल्यू को एक साथ जोड़ा जाता है.
एक डाइमेंशन वाला उदाहरण:
Concat({ {2, 3}, {4, 5}, {6, 7} }, 0)
//Output: {2, 3, 4, 5, 6, 7}
दो डाइमेंशन वाला उदाहरण:
let a = { {1, 2},
{3, 4},
{5, 6} };
let b = { {7, 8} };
Concat({a, b}, 0)
//Output: { {1, 2},
// {3, 4},
// {5, 6},
// {7, 8} }
डायग्राम:

StableHLO के बारे में जानकारी के लिए, StableHLO - concatenate देखें.
कंडीशनल
XlaBuilder::Conditional भी देखें.
Conditional(predicate, true_operand, true_computation, false_operand,
false_computation)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
predicate |
XlaOp |
PRED टाइप का स्केलर |
true_operand |
XlaOp |
टाइप का आर्ग्युमेंट \(T_0\) |
true_computation |
XlaComputation |
XlaComputation of type \(T_0 \to S\) |
false_operand |
XlaOp |
टाइप का आर्ग्युमेंट \(T_1\) |
false_computation |
XlaComputation |
XlaComputation of type \(T_1 \to S\) |
अगर predicate true है, तो true_computation को लागू करता है. अगर predicate false है, तो false_computation को लागू करता है. इसके बाद, नतीजा दिखाता है.
true_computation को \(T_0\) टाइप का एक आर्ग्युमेंट लेना होगा. इसे true_operand के साथ लागू किया जाएगा, जो एक ही टाइप का होना चाहिए. false_computation को \(T_1\) टाइप का एक आर्ग्युमेंट लेना चाहिए. इसे false_operand के साथ लागू किया जाएगा, जो एक ही टाइप का होना चाहिए. true_computation और false_computation से मिली वैल्यू का टाइप एक जैसा होना चाहिए.
ध्यान दें कि predicate की वैल्यू के आधार पर, true_computation और false_computation में से सिर्फ़ एक को लागू किया जाएगा.
Conditional(branch_index, branch_computations, branch_operands)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
branch_index |
XlaOp |
S32 टाइप का स्केलर |
branch_computations |
N XlaComputation का क्रम |
XlaComputations of type \(T_0 \to S , T_1 \to S , ..., T_{N-1} \to S\) |
branch_operands |
N XlaOp का क्रम |
\(T_0 , T_1 , ..., T_{N-1}\)टाइप के आर्ग्युमेंट |
branch_computations[branch_index] को लागू करता है और नतीजा दिखाता है. अगर branch_index एक S32 है, जो < 0 या >= N है, तो branch_computations[N-1] को डिफ़ॉल्ट ब्रांच के तौर पर लागू किया जाता है.
हर branch_computations[b] को \(T_b\) टाइप का एक आर्ग्युमेंट लेना चाहिए. इसे branch_operands[b] के साथ लागू किया जाएगा, जो एक ही टाइप का होना चाहिए. हर branch_computations[b] के लिए, दिखाई गई वैल्यू का टाइप एक जैसा होना चाहिए.
ध्यान दें कि branch_index की वैल्यू के आधार पर, सिर्फ़ एक branch_computations को लागू किया जाएगा.
StableHLO के बारे में जानकारी के लिए, StableHLO - if देखें.
स्थिर
XlaBuilder::ConstantLiteral भी देखें.
यह फ़ंक्शन, किसी कॉन्स्टेंट literal से output बनाता है.
Constant(literal)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
literal |
LiteralSlice |
मौजूदा Literal का लगातार व्यू |
StableHLO के बारे में जानकारी के लिए, StableHLO - constant देखें.
ConvertElementType
XlaBuilder::ConvertElementType भी देखें.
C++ में मौजूद एलिमेंट-वाइज़ static_cast की तरह ही, ConvertElementType भी डेटा शेप से टारगेट शेप में एलिमेंट-वाइज़ कन्वर्ज़न ऑपरेशन करता है. डाइमेंशन मेल खाने चाहिए.साथ ही, कन्वर्ज़न एलिमेंट के हिसाब से होना चाहिए. उदाहरण के लिए, s32 एलिमेंट, s32-से-f32 कन्वर्ज़न रूटीन के ज़रिए f32 एलिमेंट बन जाते हैं.
ConvertElementType(operand, new_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
D डाइमेंशन वाला T टाइप का ऐरे |
new_element_type |
PrimitiveType |
टाइप U |
ऑपरेंड और टारगेट शेप के डाइमेंशन मेल खाने चाहिए. सोर्स और डेस्टिनेशन एलिमेंट टाइप, टपल नहीं होने चाहिए.
T=s32 से U=f32 जैसे कन्वर्ज़न में, इंट-टू-फ़्लोट कन्वर्ज़न रूटीन को सामान्य किया जाएगा. जैसे, राउंड-टू-नियरेस्ट-ईवन.
let a: s32[3] = {0, 1, 2};
let b: f32[3] = convert(a, f32);
then b == f32[3]{0.0, 1.0, 2.0}
StableHLO के बारे में जानकारी के लिए, StableHLO - convert देखें.
Conv (कॉन्वोल्यूशन)
XlaBuilder::Conv भी देखें.
यह फ़ंक्शन, न्यूरल नेटवर्क में इस्तेमाल किए जाने वाले कनवोल्यूशन की गणना करता है. यहां, कनवोल्यूशन को n-डाइमेंशन वाली विंडो के तौर पर देखा जा सकता है. यह n-डाइमेंशन वाले बेस एरिया में घूमती है. साथ ही, विंडो की हर संभावित पोज़िशन के लिए कंप्यूटेशन किया जाता है.
Conv यह फ़ंक्शन, कंप्यूटेशन पर एक कनवोल्यूशन निर्देश को लाइन में लगाता है. यह डिफ़ॉल्ट कनवोल्यूशन डाइमेंशन नंबर का इस्तेमाल करता है. इसमें डाइलटेशन नहीं होता है.
पैडिंग को शॉर्ट-हैंड तरीके से, SAME या VALID के तौर पर तय किया जाता है. SAME पैडिंग, इनपुट (lhs) में शून्य जोड़ती है, ताकि स्ट्राइडिंग को ध्यान में न रखने पर, आउटपुट का आकार इनपुट के आकार जैसा ही हो. मान्य पैडिंग का मतलब है कि कोई पैडिंग नहीं है.
Conv(lhs, rhs, window_strides, padding, feature_group_count,
batch_group_count, precision_config, preferred_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs
|
XlaOp
|
इनपुट का (n+2)-डाइमेंशनल ऐरे |
rhs
|
XlaOp
|
कर्नेल वेट का (n+2)-डाइमेंशनल ऐरे |
window_strides |
ArraySlice<int64> |
कर्नेल स्ट्राइड का n-d अरे |
padding |
Padding |
पैडिंग का enum |
feature_group_count
|
int64 | सुविधा ग्रुप की संख्या |
batch_group_count |
int64 | बैच ग्रुप की संख्या |
precision_config
|
ज़रूरी नहीं
PrecisionConfig |
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं
PrimitiveType |
स्केलर एलिमेंट टाइप का enum |
Conv के लिए, कंट्रोल के ज़्यादा लेवल उपलब्ध हैं:
मान लें कि n, स्पेस डाइमेंशन की संख्या है. lhs आर्ग्युमेंट, आधार क्षेत्र के बारे में बताने वाला (n+2)-डाइमेंशनल ऐरे है. इसे इनपुट कहा जाता है. हालांकि, आरएचएस भी एक इनपुट है. न्यूरल नेटवर्क में, ये इनपुट ऐक्टिवेशन होते हैं. n+2 डाइमेंशन इस क्रम में हैं:
batch: इस डाइमेंशन में मौजूद हर कोऑर्डिनेट, एक इंडिपेंडेंट इनपुट को दिखाता है. इसके लिए, कनवोल्यूशन किया जाता है.z/depth/features: बेस एरिया में मौजूद हर (y,x) पोज़िशन से एक वेक्टर जुड़ा होता है, जो इस डाइमेंशन में जाता है.spatial_dims: इसमेंnके ऐसे डाइमेंशन के बारे में बताया जाता है जिनसे उस बेस एरिया के बारे में पता चलता है जिस पर विंडो मूव करती है.
rhs आर्ग्युमेंट, (n+2)-डाइमेंशनल ऐरे होता है. यह कनवोल्यूशनल फ़िल्टर/कर्नेल/विंडो के बारे में बताता है. डाइमेंशन इस क्रम में हैं:
output-z: आउटपुट काzडाइमेंशन.input-z: इस डाइमेंशन का साइज़,feature_group_countके साइज़ के बराबर होना चाहिए.zspatial_dims: इसमेंnके ऐसे स्पेशल डाइमेंशन के बारे में बताया जाता है जिनसे n-d विंडो तय होती है. यह विंडो, बेस एरिया में घूमती है.
window_strides आर्ग्युमेंट, स्पेस के डाइमेंशन में कनवोल्यूशनल विंडो के स्ट्राइड के बारे में बताता है. उदाहरण के लिए, अगर पहले स्पेशल डाइमेंशन में स्ट्राइड 3 है, तो विंडो को सिर्फ़ उन निर्देशांकों पर रखा जा सकता है जहां पहला स्पेशल इंडेक्स 3 से भाग दिया जा सकता है.
padding आर्ग्युमेंट, बेस एरिया पर लागू होने वाली ज़ीरो पैडिंग की मात्रा के बारे में बताता है. पैडिंग की वैल्यू नेगेटिव हो सकती है. नेगेटिव पैडिंग की ऐब्सलूट वैल्यू से पता चलता है कि कनवोल्यूशन करने से पहले, तय किए गए डाइमेंशन से कितने एलिमेंट हटाने हैं. padding[0], डाइमेंशन y के लिए पैडिंग तय करता है और padding[1], डाइमेंशन x के लिए पैडिंग तय करता है. हर जोड़े में, पहले एलिमेंट के तौर पर कम पैडिंग और दूसरे एलिमेंट के तौर पर ज़्यादा पैडिंग होती है. कम पैडिंग, कम इंडेक्स की दिशा में लागू होती है. वहीं, ज़्यादा पैडिंग, ज़्यादा इंडेक्स की दिशा में लागू होती है. उदाहरण के लिए, अगर padding[1] (2,3) है, तो दूसरे डाइमेंशन में बाईं ओर दो और दाईं ओर तीन शून्य की पैडिंग होगी. पैडिंग का इस्तेमाल करना, कनवोल्यूशन करने से पहले इनपुट (lhs) में उन शून्य वैल्यू को डालने के बराबर है.
lhs_dilation और rhs_dilation आर्ग्युमेंट, हर स्पेस डाइमेंशन में एलएचएस और आरएचएस पर लागू होने वाले डाइलेशन फ़ैक्टर के बारे में बताते हैं. अगर किसी स्पेशल डाइमेंशन में डाइलटेशन फ़ैक्टर d है, तो उस डाइमेंशन में हर एंट्री के बीच d-1 होल अपने-आप जुड़ जाते हैं. इससे ऐरे का साइज़ बढ़ जाता है. इन जगहों पर कोई कार्रवाई नहीं की जाती है. कनवोल्यूशन के लिए, इसका मतलब है कि यहां शून्य वैल्यू होती है.
आरएचएस के डाइलेशन को ऐट्रस कनवोल्यूशन भी कहा जाता है. ज़्यादा जानकारी के लिए, tf.nn.atrous_conv2d देखें. एलएचएस के डाइलेशन को ट्रांसपोज़्ड कन्वलूशन भी कहा जाता है. ज़्यादा जानकारी के लिए, tf.nn.conv2d_transpose देखें.
feature_group_count आर्ग्युमेंट (डिफ़ॉल्ट वैल्यू 1) का इस्तेमाल, ग्रुप किए गए कनवोल्यूशन के लिए किया जा सकता है. feature_group_count को इनपुट और आउटपुट, दोनों फ़ीचर डाइमेंशन का भाजक होना चाहिए. अगर feature_group_count की वैल्यू 1 से ज़्यादा है, तो इसका मतलब है कि इनपुट और आउटपुट फ़ीचर डाइमेंशन और rhs आउटपुट फ़ीचर डाइमेंशन को feature_group_count ग्रुप में बराबर बांटा गया है. हर ग्रुप में, फ़ीचर का लगातार सबसीक्वेंस होता है. rhs के इनपुट फ़ीचर डाइमेंशन को lhs के इनपुट फ़ीचर डाइमेंशन को feature_group_count से भाग देने पर मिलने वाले नतीजे के बराबर होना चाहिए. इसलिए, इसमें पहले से ही इनपुट फ़ीचर के ग्रुप का साइज़ होता है. i-वें ग्रुप का इस्तेमाल, कई अलग-अलग कनवोल्यूशन के लिए feature_group_count का हिसाब लगाने के लिए किया जाता है. इन कनवोल्यूशन के नतीजों को आउटपुट फ़ीचर डाइमेंशन में एक साथ जोड़ा जाता है.
डेप्थवाइज़ कनवोल्यूशन के लिए, feature_group_count आर्ग्युमेंट को इनपुट फ़ीचर डाइमेंशन पर सेट किया जाएगा. साथ ही, फ़िल्टर को [filter_height, filter_width, in_channels, channel_multiplier] से [filter_height, filter_width, 1, in_channels * channel_multiplier] में बदला जाएगा. ज़्यादा जानकारी के लिए, tf.nn.depthwise_conv2d देखें.
batch_group_count (डिफ़ॉल्ट वैल्यू 1) आर्ग्युमेंट का इस्तेमाल, बैकप्रॉपैगेशन के दौरान ग्रुप किए गए फ़िल्टर के लिए किया जा सकता है. batch_group_count, lhs (इनपुट) बैच डाइमेंशन के साइज़ का भाजक होना चाहिए. अगर batch_group_count की वैल्यू 1 से ज़्यादा है, तो इसका मतलब है कि आउटपुट बैच डाइमेंशन का साइज़ input batch
/ batch_group_count होना चाहिए. batch_group_count, आउटपुट फ़ीचर साइज़ का भाजक होना चाहिए.
आउटपुट का आकार, इस क्रम में इन डाइमेंशन का होता है:
batch: इस डाइमेंशन का साइज़,batch_group_countसे गुणा करने पर, एलएचएस में मौजूदbatchडाइमेंशन के साइज़ के बराबर होना चाहिए.z: कर्नल (rhs) पर मौजूदoutput-zके साइज़ के बराबर.spatial_dims: कनवोल्यूशनल विंडो के हर मान्य प्लेसमेंट के लिए एक वैल्यू.
ऊपर दी गई इमेज में दिखाया गया है कि batch_group_count फ़ील्ड कैसे काम करता है. असल में, हम हर एलएचएस बैच को batch_group_count ग्रुप में बांटते हैं. साथ ही, आउटपुट सुविधाओं के लिए भी ऐसा ही करते हैं. इसके बाद, हम इनमें से हर ग्रुप के लिए पेयरवाइज़ कनवोल्यूशन करते हैं और आउटपुट फ़ीचर डाइमेंशन के साथ आउटपुट को जोड़ते हैं. अन्य सभी डाइमेंशन (सुविधा और जगह) के ऑपरेशनल सिमैंटिक में कोई बदलाव नहीं होता.
कन्वलूशनल विंडो के मान्य प्लेसमेंट, स्ट्राइड और पैडिंग के बाद आधार के साइज़ से तय होते हैं.
कनवोल्यूशन के काम करने के तरीके के बारे में बताने के लिए, 2D कनवोल्यूशन पर विचार करें. साथ ही, आउटपुट में कुछ तय batch, z, y, x कोऑर्डिनेट चुनें. इसके बाद, (y,x), बेस एरिया में विंडो के कोने की पोज़िशन है.उदाहरण के लिए, यह ऊपरी बायां कोना है. यह इस बात पर निर्भर करता है कि आपने स्पेस डाइमेंशन को कैसे समझा है. अब हमारे पास बेस एरिया से लिया गया 2D विंडो है, जहां हर 2D पॉइंट एक 1D वेक्टर से जुड़ा होता है. इसलिए, हमें एक 3D बॉक्स मिलता है. कनवोल्यूशनल कर्नल से, हमें 3D बॉक्स भी मिलता है. ऐसा इसलिए, क्योंकि हमने आउटपुट कोऑर्डिनेट z को ठीक कर दिया है. दोनों बॉक्स का डाइमेंशन एक जैसा है. इसलिए, हम दोनों बॉक्स के बीच एलिमेंट-वाइज़ प्रॉडक्ट का योग निकाल सकते हैं. यह डॉट प्रॉडक्ट की तरह होता है. यह आउटपुट वैल्यू है.
ध्यान दें कि अगर output-z की वैल्यू, उदाहरण के लिए 5 है, तो विंडो की हर पोज़िशन, आउटपुट के z डाइमेंशन में पांच वैल्यू जनरेट करती है. इन वैल्यू में यह अंतर होता है कि कनवोल्यूशनल कर्नल का कौन-सा हिस्सा इस्तेमाल किया जाता है. हर output-z कोऑर्डिनेट के लिए, वैल्यू का एक अलग 3D बॉक्स होता है. इसलिए, इसे पांच अलग-अलग कनवोल्यूशन के तौर पर देखा जा सकता है. इनमें से हर कनवोल्यूशन के लिए अलग फ़िल्टर होता है.
पैडिंग और स्ट्राइडिंग के साथ 2D कनवोल्यूशन के लिए, यहां सूडो-कोड दिया गया है:
for (b, oz, oy, ox) { // output coordinates
value = 0;
for (iz, ky, kx) { // kernel coordinates and input z
iy = oy*stride_y + ky - pad_low_y;
ix = ox*stride_x + kx - pad_low_x;
if ((iy, ix) inside the base area considered without padding) {
value += input(b, iz, iy, ix) * kernel(oz, iz, ky, kx);
}
}
output(b, oz, oy, ox) = value;
}
precision_config का इस्तेमाल, सटीक कॉन्फ़िगरेशन के बारे में बताने के लिए किया जाता है. लेवल से यह तय होता है कि हार्डवेयर को ज़्यादा मशीन कोड जनरेट करने की कोशिश करनी चाहिए या नहीं.इससे ज़रूरत पड़ने पर, ज़्यादा सटीक dtype इम्यूलेशन उपलब्ध कराया जा सकता है. जैसे, ऐसे टीपीयू पर f32 का इम्यूलेशन करना जो सिर्फ़ bf16 matmuls के साथ काम करता है. वैल्यू DEFAULT, HIGH, HIGHEST हो सकती हैं. MXU सेक्शन में ज़्यादा जानकारी.
preferred_element_type एक स्केलर एलिमेंट है. इसका इस्तेमाल, ज़्यादा/कम सटीक आउटपुट टाइप को इकट्ठा करने के लिए किया जाता है. preferred_element_type, दी गई कार्रवाई के लिए संचय टाइप का सुझाव देता है. हालांकि, इसकी कोई गारंटी नहीं है. इससे कुछ हार्डवेयर बैकएंड, किसी दूसरे टाइप में इकट्ठा हो जाते हैं और पसंदीदा आउटपुट टाइप में बदल जाते हैं.
StableHLO के बारे में जानकारी के लिए, StableHLO - कनवोल्यूशन देखें.
ConvWithGeneralPadding
XlaBuilder::ConvWithGeneralPadding भी देखें.
ConvWithGeneralPadding(lhs, rhs, window_strides, padding,
feature_group_count, batch_group_count, precision_config,
preferred_element_type)
यह Conv के जैसा ही है, जिसमें पैडिंग कॉन्फ़िगरेशन साफ़ तौर पर बताया गया है.
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs
|
XlaOp
|
इनपुट का (n+2)-डाइमेंशनल ऐरे |
rhs
|
XlaOp
|
कर्नेल वेट का (n+2)-डाइमेंशनल ऐरे |
window_strides |
ArraySlice<int64> |
कर्नेल स्ट्राइड का n-d अरे |
padding
|
ArraySlice<
pair<int64,int64>> |
(low, high) पैडिंग का n-d ऐरे |
feature_group_count
|
int64 | सुविधा ग्रुप की संख्या |
batch_group_count |
int64 | बैच ग्रुप की संख्या |
precision_config
|
ज़रूरी नहीं
PrecisionConfig |
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं
PrimitiveType |
स्केलर एलिमेंट टाइप का enum |
ConvWithGeneralDimensions
XlaBuilder::ConvWithGeneralDimensions भी देखें.
ConvWithGeneralDimensions(lhs, rhs, window_strides, padding,
dimension_numbers, feature_group_count, batch_group_count, precision_config,
preferred_element_type)
यह Conv जैसा ही है. इसमें डाइमेंशन नंबर साफ़ तौर पर दिए गए हैं.
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs
|
XlaOp
|
इनपुट का (n+2)-डाइमेंशनल ऐरे |
rhs
|
XlaOp
|
कर्नेल वेट का (n+2)-डाइमेंशनल ऐरे |
window_strides
|
ArraySlice<int64>
|
कर्नेल स्ट्राइड का n-d ऐरे |
padding |
Padding |
पैडिंग का enum |
dimension_numbers
|
ConvolutionDimensionNumbers
|
डाइमेंशन की संख्या |
feature_group_count
|
int64 | सुविधा ग्रुप की संख्या |
batch_group_count
|
int64 | बैच ग्रुप की संख्या |
precision_config
|
ज़रूरी नहीं PrecisionConfig
|
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं PrimitiveType
|
स्केलर एलिमेंट टाइप की सूची |
ConvGeneral
XlaBuilder::ConvGeneral भी देखें.
ConvGeneral(lhs, rhs, window_strides, padding, dimension_numbers,
feature_group_count, batch_group_count, precision_config,
preferred_element_type)
Conv के जैसा ही है. इसमें डाइमेंशन नंबर और पैडिंग कॉन्फ़िगरेशन साफ़ तौर पर बताया गया है
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs
|
XlaOp
|
इनपुट का (n+2)-डाइमेंशनल ऐरे |
rhs
|
XlaOp
|
कर्नेल वेट का (n+2)-डाइमेंशनल ऐरे |
window_strides
|
ArraySlice<int64>
|
कर्नेल स्ट्राइड का n-d ऐरे |
padding
|
ArraySlice<
pair<int64,int64>>
|
n-d array of (low, high) padding |
dimension_numbers
|
ConvolutionDimensionNumbers
|
डाइमेंशन की संख्या |
feature_group_count
|
int64 | सुविधा ग्रुप की संख्या |
batch_group_count
|
int64 | बैच ग्रुप की संख्या |
precision_config
|
ज़रूरी नहीं PrecisionConfig
|
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं PrimitiveType
|
स्केलर एलिमेंट टाइप की सूची |
ConvGeneralDilated
XlaBuilder::ConvGeneralDilated भी देखें.
ConvGeneralDilated(lhs, rhs, window_strides, padding, lhs_dilation,
rhs_dilation, dimension_numbers, feature_group_count, batch_group_count,
precision_config, preferred_element_type, window_reversal)
यह Conv के जैसा ही है. इसमें पैडिंग कॉन्फ़िगरेशन, डाइलेशन फ़ैक्टर, और डाइमेंशन नंबर साफ़ तौर पर दिए गए हैं.
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs
|
XlaOp
|
इनपुट का (n+2)-डाइमेंशनल ऐरे |
rhs
|
XlaOp
|
कर्नेल वेट का (n+2)-डाइमेंशनल ऐरे |
window_strides
|
ArraySlice<int64>
|
कर्नेल स्ट्राइड का n-d ऐरे |
padding
|
ArraySlice<
pair<int64,int64>>
|
n-d array of (low, high) padding |
lhs_dilation
|
ArraySlice<int64>
|
n-d lhs dilation factor array |
rhs_dilation
|
ArraySlice<int64>
|
n-d rhs dilation factor array |
dimension_numbers
|
ConvolutionDimensionNumbers
|
डाइमेंशन की संख्या |
feature_group_count
|
int64 | सुविधा ग्रुप की संख्या |
batch_group_count
|
int64 | बैच ग्रुप की संख्या |
precision_config
|
ज़रूरी नहीं PrecisionConfig
|
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं PrimitiveType
|
स्केलर एलिमेंट टाइप की सूची |
window_reversal
|
ज़रूरी नहीं vector<bool>
|
इस फ़्लैग का इस्तेमाल, कनवोल्यूशन लागू करने से पहले डाइमेंशन को लॉजिक के हिसाब से उलटने के लिए किया जाता है |
कॉपी करें
HloInstruction::CreateCopyStart भी देखें.
Copy को अंदरूनी तौर पर दो एचएलओ निर्देशों CopyStart और CopyDone में बांटा जाता है. Copy के साथ-साथ CopyStart और CopyDone, HLO में प्रिमिटिव के तौर पर काम करते हैं. ये ऑप, एचएलओ डंप में दिख सकते हैं. हालांकि, इन्हें उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
Cos
यह भी देखेंXlaBuilder::Cos.
एलिमेंट के हिसाब से कोसाइन x -> cos(x).
Cos(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Cos में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Cos(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - cosine देखें.
Cosh
XlaBuilder::Cosh भी देखें.
हर एलिमेंट के लिए हाइपरबोलिक कोसाइन x -> cosh(x).
Cosh(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Cosh फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Cosh(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
देखें
CustomCall
XlaBuilder::CustomCall भी देखें.
कैलकुलेशन के दौरान, उपयोगकर्ता के दिए गए फ़ंक्शन को कॉल करें.
CustomCall के बारे में दस्तावेज़, डेवलपर की जानकारी - XLA Custom Calls में दिया गया है
StableHLO के बारे में जानकारी के लिए, StableHLO - custom_call देखें.
डिवीजन
XlaBuilder::Div भी देखें.
यह फ़ंक्शन, डिविडेंड lhs और डिवाइज़र rhs के हर एलिमेंट को अलग-अलग भाग देता है.
Div(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
पूर्णांक को भाग देने पर ओवरफ़्लो (शून्य से भाग देने पर या INT_SMIN को -1 से भाग देने पर, साइंड/अनसाइंड डिविज़न/रीमाइंडर) होने पर, लागू करने के लिए तय की गई वैल्यू मिलती है.
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Div के लिए, अलग-अलग डाइमेंशन वाली ब्रॉडकास्टिंग की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
Div(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - divide देखें.
डोमेन
HloInstruction::CreateDomain भी देखें.
Domain, एचएलओ डंप में दिख सकता है. हालांकि, इसे असली उपयोगकर्ताओं को मैन्युअल तरीके से नहीं बनाना चाहिए.
डॉट
XlaBuilder::Dot भी देखें.
Dot(lhs, rhs, precision_config, preferred_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs |
XlaOp |
टाइप T का कलेक्शन |
rhs |
XlaOp |
टाइप T का कलेक्शन |
precision_config
|
ज़रूरी नहीं
PrecisionConfig |
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं
PrimitiveType |
स्केलर एलिमेंट टाइप का enum |
इस ऑपरेशन का सटीक सिमैंटिक, ऑपरेंड की रैंक पर निर्भर करता है:
| इनपुट | आउटपुट | सिमैंटिक |
|---|---|---|
वेक्टर [n] dot वेक्टर [n] |
स्केलर | वेक्टर डॉट प्रॉडक्ट |
मैट्रिक्स [m x k] dot vector
[k] |
वेक्टर [m] | मैट्रिक्स-वेक्टर गुणन |
मैट्रिक्स [m x k] dot मैट्रिक्स
[k x n] |
मैट्रिक्स [m x n] | मैट्रिक्स-मैट्रिक्स मल्टिप्लिकेशन |
यह ऑपरेशन, lhs के दूसरे डाइमेंशन (या अगर इसमें एक डाइमेंशन है, तो पहले डाइमेंशन) और rhs के पहले डाइमेंशन के प्रॉडक्ट का योग करता है. इन्हें "कॉन्ट्रैक्ट किए गए" डाइमेंशन कहा जाता है. lhs और rhs के छोटे किए गए डाइमेंशन का साइज़ एक जैसा होना चाहिए. इसका इस्तेमाल, सदिशों के बीच डॉट प्रॉडक्ट, सदिश/मैट्रिक्स के गुणन या मैट्रिक्स/मैट्रिक्स के गुणन के लिए किया जा सकता है.
precision_config का इस्तेमाल, सटीक कॉन्फ़िगरेशन के बारे में बताने के लिए किया जाता है. लेवल से यह तय होता है कि हार्डवेयर को ज़्यादा मशीन कोड जनरेट करने की कोशिश करनी चाहिए या नहीं.इससे ज़रूरत पड़ने पर, ज़्यादा सटीक dtype इम्यूलेशन उपलब्ध कराया जा सकता है. जैसे, ऐसे टीपीयू पर f32 का इम्यूलेशन करना जो सिर्फ़ bf16 matmuls के साथ काम करता है. वैल्यू DEFAULT, HIGH, HIGHEST हो सकती हैं. MXU सेक्शन में ज़्यादा जानकारी.
preferred_element_type एक स्केलर एलिमेंट है. इसका इस्तेमाल, ज़्यादा/कम सटीक आउटपुट टाइप को इकट्ठा करने के लिए किया जाता है. preferred_element_type, दी गई कार्रवाई के लिए संचय टाइप का सुझाव देता है. हालांकि, इसकी कोई गारंटी नहीं है. इससे कुछ हार्डवेयर बैकएंड, किसी दूसरे टाइप में इकट्ठा हो जाते हैं और पसंदीदा आउटपुट टाइप में बदल जाते हैं.
StableHLO के बारे में जानकारी के लिए, StableHLO - dot देखें.
DotGeneral
XlaBuilder::DotGeneral भी देखें.
DotGeneral(lhs, rhs, dimension_numbers, precision_config,
preferred_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs |
XlaOp |
टाइप T का कलेक्शन |
rhs |
XlaOp |
टाइप T का कलेक्शन |
dimension_numbers
|
DotDimensionNumbers
|
अनुबंध और बैच डाइमेंशन नंबर |
precision_config
|
ज़रूरी नहीं
PrecisionConfig |
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं
PrimitiveType |
स्केलर एलिमेंट के टाइप की enum |
यह Dot के जैसा ही है. हालांकि, इसमें lhs और rhs, दोनों के लिए कॉन्ट्रैक्टिंग और बैच डाइमेंशन नंबर तय किए जा सकते हैं.
| DotDimensionNumbers फ़ील्ड | टाइप | सिमैंटिक |
|---|---|---|
lhs_contracting_dimensions
|
repeated int64 | lhs कॉन्ट्रैक्टिंग डाइमेंशन
नंबर |
rhs_contracting_dimensions
|
repeated int64 | rhs कॉन्ट्रैक्टिंग डाइमेंशन
नंबर |
lhs_batch_dimensions
|
repeated int64 | lhs बैच डाइमेंशन
नंबर |
rhs_batch_dimensions
|
repeated int64 | rhs बैच डाइमेंशन
नंबर |
DotGeneral, dimension_numbers में दिए गए कॉन्ट्रैक्टिंग डाइमेंशन के हिसाब से प्रॉडक्ट का योग करता है.
lhs और rhs से जुड़े कॉन्ट्रैक्टिंग डाइमेंशन नंबर एक जैसे होने की ज़रूरत नहीं है. हालांकि, उनके डाइमेंशन का साइज़ एक जैसा होना चाहिए.
डाइमेंशन नंबर कम करने का उदाहरण:
lhs = { {1.0, 2.0, 3.0},
{4.0, 5.0, 6.0} }
rhs = { {1.0, 1.0, 1.0},
{2.0, 2.0, 2.0} }
DotDimensionNumbers dnums;
dnums.add_lhs_contracting_dimensions(1);
dnums.add_rhs_contracting_dimensions(1);
DotGeneral(lhs, rhs, dnums) -> { { 6.0, 12.0},
{15.0, 30.0} }
lhs और rhs से जुड़े बैच डाइमेंशन नंबर के डाइमेंशन साइज़ एक जैसे होने चाहिए.
बैच डाइमेंशन नंबर का उदाहरण (बैच साइज़ 2, 2x2 मैट्रिक्स):
lhs = { { {1.0, 2.0},
{3.0, 4.0} },
{ {5.0, 6.0},
{7.0, 8.0} } }
rhs = { { {1.0, 0.0},
{0.0, 1.0} },
{ {1.0, 0.0},
{0.0, 1.0} } }
DotDimensionNumbers dnums;
dnums.add_lhs_contracting_dimensions(2);
dnums.add_rhs_contracting_dimensions(1);
dnums.add_lhs_batch_dimensions(0);
dnums.add_rhs_batch_dimensions(0);
DotGeneral(lhs, rhs, dnums) -> {
{ {1.0, 2.0},
{3.0, 4.0} },
{ {5.0, 6.0},
{7.0, 8.0} } }
| इनपुट | आउटपुट | सिमैंटिक |
|---|---|---|
[b0, m, k] dot [b0, k, n] |
[b0, m, n] | batch matmul |
[b0, b1, m, k] dot [b0, b1, k, n] |
[b0, b1, m, n] | batch matmul |
इसलिए, डाइमेंशन नंबर, बैच डाइमेंशन से शुरू होता है. इसके बाद, lhs नॉन-कॉन्ट्रैक्टिंग/नॉन-बैच डाइमेंशन और आखिर में rhs नॉन-कॉन्ट्रैक्टिंग/नॉन-बैच डाइमेंशन आता है.
precision_config का इस्तेमाल, सटीक कॉन्फ़िगरेशन के बारे में बताने के लिए किया जाता है. लेवल से यह तय होता है कि हार्डवेयर को ज़्यादा मशीन कोड जनरेट करने की कोशिश करनी चाहिए या नहीं.इससे ज़रूरत पड़ने पर, ज़्यादा सटीक dtype इम्यूलेशन उपलब्ध कराया जा सकता है. जैसे, ऐसे टीपीयू पर f32 का इम्यूलेशन करना जो सिर्फ़ bf16 matmuls के साथ काम करता है. वैल्यू DEFAULT, HIGH, HIGHEST हो सकती हैं. ज़्यादा जानकारी MXU सेक्शन में देखी जा सकती है.
preferred_element_type एक स्केलर एलिमेंट है. इसका इस्तेमाल, ज़्यादा/कम सटीक आउटपुट टाइप को इकट्ठा करने के लिए किया जाता है. preferred_element_type, दी गई कार्रवाई के लिए संचय टाइप का सुझाव देता है. हालांकि, इसकी कोई गारंटी नहीं है. इससे कुछ हार्डवेयर बैकएंड, किसी दूसरे टाइप में इकट्ठा हो जाते हैं और पसंदीदा आउटपुट टाइप में बदल जाते हैं.
StableHLO के बारे में जानकारी के लिए, StableHLO - dot_general देखें.
ScaledDot
XlaBuilder::ScaledDot भी देखें.
ScaledDot(lhs, lhs_scale, rhs, rhs_scale, dimension_number,
precision_config,preferred_element_type)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
lhs |
XlaOp |
टाइप T का कलेक्शन |
rhs |
XlaOp |
टाइप T का कलेक्शन |
lhs_scale |
XlaOp |
टाइप T का कलेक्शन |
rhs_scale |
XlaOp |
टाइप T का कलेक्शन |
dimension_number
|
ScatterDimensionNumbers
|
स्कैटर ऑपरेशन के लिए डाइमेंशन नंबर |
precision_config
|
PrecisionConfig
|
सटीकता के लेवल के लिए enum |
preferred_element_type
|
ज़रूरी नहीं PrimitiveType
|
स्केलर एलिमेंट टाइप की सूची |
यह DotGeneral के जैसा ही है.
यह 'lhs', 'lhs_scale', 'rhs', और 'rhs_scale' ऑपरेंड के साथ एक स्केल्ड डॉट ऑप बनाता है. इसमें 'dimension_numbers' में दिए गए कॉन्ट्रैक्टिंग और बैच डाइमेंशन शामिल होते हैं.
RaggedDot
XlaBuilder::RaggedDot भी देखें.
RaggedDot कंप्यूटेशन के बारे में ज़्यादा जानने के लिए, StableHLO - chlo.ragged_dot पर जाएं
DynamicReshape
XlaBuilder::DynamicReshape भी देखें.
यह ऑपरेशन, फ़ंक्शन के तौर पर reshape के जैसा ही होता है. हालांकि, output_shape के ज़रिए नतीजे के आकार को डाइनैमिक तरीके से तय किया जाता है.
DynamicReshape(operand, dim_sizes, new_size_bounds, dims_are_dynamic)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का N डाइमेंशन वाला कलेक्शन |
dim_sizes |
XlaOP का वेक्टर |
N डाइमेंशन वाले वेक्टर के साइज़ |
new_size_bounds |
int63 का वेक्टर |
सीमाओं का N डाइमेंशन वाला वेक्टर |
dims_are_dynamic |
bool का वेक्टर |
N डाइमेंशन वाला डाइनैमिक डिम |
StableHLO के बारे में जानकारी के लिए, StableHLO - dynamic_reshape देखें.
DynamicSlice
XlaBuilder::DynamicSlice भी देखें.
DynamicSlice, इनपुट ऐरे से डाइनैमिक
start_indices पर एक सब-ऐरे निकालता है. हर डाइमेंशन में स्लाइस का साइज़, size_indices में पास किया जाता है. इससे हर डाइमेंशन में स्लाइस के एक्सक्लूसिव इंटरवल का आखिरी पॉइंट तय होता है: [start, start + size). start_indices का आकार एक डाइमेंशन वाला होना चाहिए. साथ ही, इसका डाइमेंशन साइज़, operand के डाइमेंशन की संख्या के बराबर होना चाहिए.
DynamicSlice(operand, start_indices, slice_sizes)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का N डाइमेंशन वाला कलेक्शन |
start_indices
|
N XlaOp का क्रम
|
N स्केलर पूर्णांकों की सूची, जिसमें हर डाइमेंशन के लिए स्लाइस के शुरुआती इंडेक्स शामिल होते हैं. वैल्यू, शून्य से ज़्यादा या उसके बराबर होनी चाहिए. |
size_indices
|
ArraySlice<int64>
|
N पूर्णांकों की सूची, जिसमें हर डाइमेंशन के लिए स्लाइस का साइज़ होता है. हर वैल्यू, शून्य से ज़्यादा होनी चाहिए. साथ ही, start + size, डाइमेंशन के साइज़ से कम या उसके बराबर होना चाहिए, ताकि डाइमेंशन के साइज़ के हिसाब से रैपिंग मॉड्यूलो से बचा जा सके. |
स्लाइस करने से पहले, हर इंडेक्स i के लिए, [1, N) में नीचे दिए गए ट्रांसफ़ॉर्मेशन को लागू करके, स्लाइस के इंडेक्स की गिनती की जाती है:
start_indices[i] = clamp(start_indices[i], 0, operand.dimension_size[i] - slice_sizes[i])
इससे यह पक्का होता है कि निकाला गया स्लाइस, ऑपरेंड ऐरे के हिसाब से हमेशा इन-बाउंड होता है. अगर ट्रांसफ़ॉर्मेशन लागू करने से पहले स्लाइस इन-बाउंड है, तो ट्रांसफ़ॉर्मेशन का कोई असर नहीं पड़ता.
एक डाइमेंशन वाला उदाहरण:
let a = {0.0, 1.0, 2.0, 3.0, 4.0};
let s = {2};
DynamicSlice(a, s, {2});
// Result: {2.0, 3.0}
दो डाइमेंशन वाला उदाहरण:
let b =
{ {0.0, 1.0, 2.0},
{3.0, 4.0, 5.0},
{6.0, 7.0, 8.0},
{9.0, 10.0, 11.0} }
let s = {2, 1}
DynamicSlice(b, s, {2, 2});
//Result:
// { { 7.0, 8.0},
// {10.0, 11.0} }
StableHLO के बारे में जानकारी के लिए, StableHLO - dynamic_slice देखें.
DynamicUpdateSlice
XlaBuilder::DynamicUpdateSlice भी देखें.
DynamicUpdateSlice, इनपुट ऐरे operand की वैल्यू के तौर पर एक नतीजा जनरेट करता है. इसमें start_indices पर स्लाइस update को ओवरराइट किया जाता है.
update के आकार से, नतीजे के सब-ऐरे का आकार तय होता है. यह सब-ऐरे अपडेट किया जाता है.
start_indices का आकार एक डाइमेंशन वाला होना चाहिए. साथ ही, इसका डाइमेंशन साइज़, operand के डाइमेंशन की संख्या के बराबर होना चाहिए.
DynamicUpdateSlice(operand, update, start_indices)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का N डाइमेंशन वाला कलेक्शन |
update
|
XlaOp
|
टी टाइप का एन डाइमेंशनल ऐरे, जिसमें स्लाइस अपडेट होता है. अपडेट किए गए शेप के हर डाइमेंशन की वैल्यू, शून्य से ज़्यादा होनी चाहिए. साथ ही, हर डाइमेंशन के लिए, start + update की वैल्यू, ऑपरेंड के साइज़ से कम या उसके बराबर होनी चाहिए. इससे, अपडेट किए गए इंडेक्स की वैल्यू, तय सीमा से बाहर नहीं जाएगी. |
start_indices
|
N XlaOp का क्रम
|
N स्केलर पूर्णांकों की सूची, जिसमें हर डाइमेंशन के लिए स्लाइस के शुरुआती इंडेक्स शामिल होते हैं. वैल्यू, शून्य से ज़्यादा या उसके बराबर होनी चाहिए. |
स्लाइस करने से पहले, हर इंडेक्स i के लिए, [1, N) में नीचे दिए गए ट्रांसफ़ॉर्मेशन को लागू करके, स्लाइस के इंडेक्स की गिनती की जाती है:
start_indices[i] = clamp(start_indices[i], 0, operand.dimension_size[i] - update.dimension_size[i])
इससे यह पक्का होता है कि अपडेट किया गया स्लाइस, ऑपरेंड ऐरे के हिसाब से हमेशा इन-बाउंड होता है. अगर ट्रांसफ़ॉर्मेशन लागू करने से पहले स्लाइस इन-बाउंड है, तो ट्रांसफ़ॉर्मेशन का कोई असर नहीं पड़ता.
एक डाइमेंशन वाला उदाहरण:
let a = {0.0, 1.0, 2.0, 3.0, 4.0}
let u = {5.0, 6.0}
let s = {2}
DynamicUpdateSlice(a, u, s)
// Result: {0.0, 1.0, 5.0, 6.0, 4.0}
दो डाइमेंशन वाला उदाहरण:
let b =
{ {0.0, 1.0, 2.0},
{3.0, 4.0, 5.0},
{6.0, 7.0, 8.0},
{9.0, 10.0, 11.0} }
let u =
{ {12.0, 13.0},
{14.0, 15.0},
{16.0, 17.0} }
let s = {1, 1}
DynamicUpdateSlice(b, u, s)
// Result:
// { {0.0, 1.0, 2.0},
// {3.0, 12.0, 13.0},
// {6.0, 14.0, 15.0},
// {9.0, 16.0, 17.0} }
StableHLO के बारे में जानकारी के लिए, StableHLO - dynamic_update_slice देखें.
Erf
XlaBuilder::Erf भी देखें.
हर एलिमेंट के लिए एरर फ़ंक्शन x -> erf(x), जहां:
\(\text{erf}(x) = \frac{2}{\sqrt{\pi} }\int_0^x e^{-t^2} \, dt\).
Erf(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Erf फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Erf(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
आखिरी तारीख
XlaBuilder::Exp भी देखें.
हर एलिमेंट के लिए नैचुरल एक्सपोनेंशियल x -> e^x.
Exp(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Exp में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Exp(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - exponential देखें.
Expm1
XlaBuilder::Expm1 भी देखें.
हर एलिमेंट के लिए, नैचुरल एक्सपोनेंशियल माइनस वन x -> e^x - 1.
Expm1(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Expm1 फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Expm1(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - exponential_minus_one देखें.
Fft
XlaBuilder::Fft भी देखें.
XLA FFT ऑपरेशन, असली और काल्पनिक इनपुट/आउटपुट के लिए फ़ॉरवर्ड और इन्वर्स फुरिअर ट्रांसफ़ॉर्म लागू करता है. इसमें ज़्यादा से ज़्यादा तीन ऐक्सिस पर मल्टीडाइमेंशनल एफ़एफ़टी इस्तेमाल किए जा सकते हैं.
Fft(operand, ftt_type, fft_length)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
वह ऐरे जिसका फुरिअर ट्रांसफ़ॉर्म किया जा रहा है. |
fft_type |
FftType |
यहां दी गई टेबल देखें. |
fft_length
|
ArraySlice<int64>
|
बदले जा रहे ऐक्सिस की टाइम-डोमेन की लंबाई. खास तौर पर, IRFFT के लिए इसकी ज़रूरत होती है, ताकि सबसे अंदरूनी ऐक्सिस का साइज़ सही तरीके से तय किया जा सके. ऐसा इसलिए, क्योंकि RFFT(fft_length=[16]) का आउटपुट शेप, RFFT(fft_length=[17]) के आउटपुट शेप जैसा ही होता है. |
FftType |
सिमैंटिक |
|---|---|
FFT |
कॉम्प्लेक्स-टू-कॉम्प्लेक्स फ़ॉरवर्ड एफ़एफ़टी. शेप में कोई बदलाव नहीं किया गया है. |
IFFT |
कॉम्प्लेक्स-टू-कॉम्प्लेक्स फ़ास्ट फ़ुरिअर ट्रांसफ़ॉर्म (एफ़एफ़टी) का उलटा. शेप में कोई बदलाव नहीं किया गया है. |
RFFT
|
रीयल-टू-कॉम्प्लेक्स फ़ॉरवर्ड एफ़एफ़टी. अगर fft_length[-1] शून्य नहीं है, तो सबसे अंदरूनी ऐक्सिस का आकार fft_length[-1] // 2 + 1 तक कम हो जाता है. इससे, बदली गई फ़्रीक्वेंसी के सिग्नल का रिवर्स कॉन्जुगेट हिस्सा, नाइक्विस्ट फ़्रीक्वेंसी से ज़्यादा हो जाता है. |
IRFFT
|
यह फ़ंक्शन, रियल-टू-कॉम्प्लेक्स फ़ास्ट फ़ुरिअर ट्रांसफ़ॉर्म (एफ़एफ़टी) का उलटा होता है. इसका मतलब है कि यह कॉम्प्लेक्स वैल्यू लेता है और रियल वैल्यू दिखाता है.
अगर fft_length[-1] की वैल्यू शून्य नहीं है, तो सबसे अंदरूनी ऐक्सिस का शेप fft_length[-1] तक बढ़ जाता है. इससे, 1 से fft_length[-1] // 2 + 1 तक की एंट्री के रिवर्स कॉन्जुगेट से, नाइक्विस्ट फ़्रीक्वेंसी से ज़्यादा ट्रांसफ़ॉर्म किए गए सिग्नल के हिस्से का अनुमान लगाया जाता है. |
StableHLO के बारे में जानकारी के लिए, StableHLO - fft देखें.
मल्टीडाइमेंशनल एफ़एफ़टी
एक से ज़्यादा fft_length दिए जाने पर, यह सबसे अंदरूनी हर ऐक्सिस पर एफ़एफ़टी ऑपरेशन की एक सीरीज़ लागू करने के बराबर होता है. ध्यान दें कि real->complex और complex->real के मामलों में, सबसे अंदरूनी ऐक्सिस ट्रांसफ़ॉर्म को (असल में) पहले किया जाता है (RFFT; IRFFT के लिए आखिरी). इसलिए, सबसे अंदरूनी ऐक्सिस का साइज़ बदलता है. इसके बाद, अन्य ऐक्सिस ट्रांसफ़ॉर्म, कॉम्प्लेक्स->कॉम्प्लेक्स हो जाएंगे.
क्रियान्वयन विवरण
सीपीयू एफ़एफटी, Eigen के TensorFFT पर आधारित है. GPU FFT, cuFFT का इस्तेमाल करता है.
मंज़िल
XlaBuilder::Floor भी देखें.
हर एलिमेंट के हिसाब से फ़्लोर x -> ⌊x⌋.
Floor(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - फ़्लोर देखें.
फ़्यूज़न
HloInstruction::CreateFusion भी देखें.
Fusion ऑपरेशन, एचएलओ निर्देशों को दिखाता है और एचएलओ में प्रिमिटिव के तौर पर काम करता है.
यह ऑप, एचएलओ डंप में दिख सकता है. हालांकि, इसे असली उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
इकट्ठा करना
XLA का gather ऑपरेशन, इनपुट ऐरे के कई स्लाइस को एक साथ जोड़ता है. हर स्लाइस, रनटाइम के अलग-अलग ऑफ़सेट पर होता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - gather देखें.
जनरल सिमैंटिक्स
XlaBuilder::Gather भी देखें.
ज़्यादा जानकारी के लिए, यहां दिया गया "सामान्य जानकारी" सेक्शन देखें.
gather(operand, start_indices, dimension_numbers, slice_sizes,
indices_are_sorted)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
वह अरे जिससे हम डेटा इकट्ठा कर रहे हैं. |
start_indices
|
XlaOp
|
इस अरे में, इकट्ठा किए गए स्लाइस के शुरुआती इंडेक्स होते हैं. |
dimension_numbers
|
GatherDimensionNumbers
|
start_indices में मौजूद वह डाइमेंशन जिसमें शुरुआती इंडेक्स "शामिल हैं". ज़्यादा जानकारी के लिए यहां देखें. |
slice_sizes
|
ArraySlice<int64>
|
slice_sizes[i], डाइमेंशन i पर स्लाइस की सीमाएं हैं. |
indices_are_sorted
|
bool
|
इससे पता चलता है कि इंडेक्स को कॉल करने वाले व्यक्ति के हिसाब से क्रम से लगाया गया है या नहीं. |
सुविधा के लिए, हम आउटपुट ऐरे में मौजूद डाइमेंशन को offset_dims में नहीं, बल्कि batch_dims के तौर पर लेबल करते हैं.
आउटपुट, batch_dims.size + offset_dims.size डाइमेंशन वाला एक ऐरे होता है.
operand.rank की वैल्यू, offset_dims.size और collapsed_slice_dims.size के योग के बराबर होनी चाहिए. साथ ही, slice_sizes.size की वैल्यू operand.rank के बराबर होनी चाहिए.
अगर index_vector_dim, start_indices.rank के बराबर है, तो हम start_indices को 1 डाइमेंशन के आखिर में मानते हैं. उदाहरण के लिए, अगर start_indices का आकार [6,7] है और index_vector_dim, 2 है, तो हम start_indices के आकार को [6,7,1] मानते हैं.
डाइमेंशन i के साथ आउटपुट कलेक्शन की सीमाओं का हिसाब इस तरह लगाया जाता है:
अगर
i,batch_dimsमें मौजूद है (यानी कि कुछkके लिएbatch_dims[k]के बराबर है), तो हमstart_indices.shapeमें से उससे जुड़े डाइमेंशन बाउंड चुनते हैं. ऐसा करते समय,index_vector_dimको छोड़ दिया जाता है. इसका मतलब है कि अगरk<index_vector_dimहै, तोstart_indices.shape.dims[k] चुनें. इसके अलावा,start_indices.shape.dims[k+1] चुनें.अगर
i,offset_dimsमें मौजूद है (यानी कि कुछkके लिएoffset_dims[k] के बराबर है), तो हमcollapsed_slice_dimsको ध्यान में रखने के बाद,slice_sizesमें से उससे जुड़ा बाउंड चुनते हैं (यानी कि हमadjusted_slice_sizes[k] चुनते हैं, जहांadjusted_slice_sizes,slice_sizesहै और इंडेक्सcollapsed_slice_dimsपर मौजूद बाउंड हटा दिए गए हैं).
औपचारिक तौर पर, दिए गए आउटपुट इंडेक्स Out के लिए, ऑपरेंड इंडेक्स In की गणना इस तरह की जाती है:
मान लें कि
G= {Out[k] forkinbatch_dims}.Gका इस्तेमाल करके, वेक्टरSको इस तरह से स्लाइस करें किS[i] =start_indices[Combine(G,i)] हो. यहां Combine(A, b) का मतलब है कि b को A मेंindex_vector_dimपोज़िशन पर डाला गया है. ध्यान दें किGकी वैल्यू खाली होने पर भी, इसे अच्छी तरह से तय किया जाता है: अगरGकी वैल्यू खाली है, तोS=start_indices.start_index_mapका इस्तेमाल करकेSको बिखेरकर,Sका इस्तेमाल करकेoperandमेंSinका शुरुआती इंडेक्स बनाएं. ज़्यादा सटीक तौर पर:Sin[start_index_map[k]] =S[k] ifk<start_index_map.size.Sin[_] =0.
collapsed_slice_dimsमें सेट किए गए इंडेक्स के हिसाब से,Outमें ऑफ़सेट डाइमेंशन पर इंडेक्सOinकोoperandमें बिखेरकर इंडेक्स बनाएं. ज़्यादा सटीक तौर पर:Oin[remapped_offset_dims(k)] =Out[offset_dims[k]] अगरk<offset_dims.size(remapped_offset_dimsकी परिभाषा यहां दी गई है).Oin[_] =0.
In,Oin+Sinहै. यहां + का मतलब है कि हर एलिमेंट को अलग-अलग जोड़ा गया है.
remapped_offset_dims एक मोनोटोनिक फ़ंक्शन है. इसका डोमेन [0,
offset_dims.size) और रेंज [0, operand.rank) \ collapsed_slice_dims है. इसलिए, अगर उदाहरण के लिए, अगर offset_dims.size, 4 है, operand.rank, 6 है, और collapsed_slice_dims, {0, 2} है, तो remapped_offset_dims, {0→1, 1→3, 2→4, 3→5} होगा.
अगर indices_are_sorted को 'सही है' पर सेट किया जाता है, तो XLA यह मान सकता है कि उपयोगकर्ता ने start_indices को क्रम से लगाया है. जैसे, start_index_map के हिसाब से वैल्यू को क्रम से लगाने के बाद बढ़ते क्रम में लगाया गया है. अगर ऐसा नहीं है, तो सिमैंटिक्स को लागू करने का तरीका तय किया जाता है.
अनौपचारिक जानकारी और उदाहरण
अनौपचारिक तौर पर, आउटपुट कलेक्शन में मौजूद हर इंडेक्स Out, ऑपरेंड कलेक्शन में मौजूद एलिमेंट E से मेल खाता है. इसकी गणना इस तरह की जाती है:
हम
Outमें मौजूद बैच डाइमेंशन का इस्तेमाल करके,start_indicesसे शुरुआती इंडेक्स ढूंढते हैं.हम
start_index_mapका इस्तेमाल करके, शुरुआती इंडेक्स (जिसका साइज़, ऑपरेंड.रैंक से कम हो सकता है) कोoperandमें "पूरे" शुरुआती इंडेक्स पर मैप करते हैं.हम पूरे शुरुआती इंडेक्स का इस्तेमाल करके,
slice_sizesसाइज़ का स्लाइस डाइनैमिक तौर पर काटते हैं.हम
collapsed_slice_dimsडाइमेंशन को छोटा करके, स्लाइस का साइज़ बदलते हैं. कोलैप्स किए गए सभी स्लाइस डाइमेंशन की सीमा 1 होनी चाहिए. इसलिए, यह रीशेप हमेशा मान्य होता है.हम
Outमें ऑफ़सेट डाइमेंशन का इस्तेमाल करके, इस स्लाइस को इंडेक्स करते हैं. इससे हमें आउटपुट इंडेक्सOutके हिसाब से इनपुट एलिमेंटEमिलता है.
यहां दिए गए सभी उदाहरणों में, index_vector_dim को start_indices.rank - 1 पर सेट किया गया है. index_vector_dim के लिए ज़्यादा दिलचस्प वैल्यू से, ऑपरेशन में कोई बुनियादी बदलाव नहीं होता. हालांकि, इससे विज़ुअल प्रज़ेंटेशन ज़्यादा मुश्किल हो जाता है.
ऊपर दी गई सभी चीज़ों को एक साथ इस्तेमाल करने का तरीका समझने के लिए, आइए एक उदाहरण देखते हैं. इसमें [16,11] ऐरे से [8,6] शेप के पांच स्लाइस इकट्ठा किए गए हैं. [16,11] ऐरे में स्लाइस की पोज़िशन को S64[2] शेप के इंडेक्स वेक्टर के तौर पर दिखाया जा सकता है. इसलिए, पांच पोज़िशन के सेट को S64[5,2] ऐरे के तौर पर दिखाया जा सकता है.
इसके बाद, gather ऑपरेशन के व्यवहार को इंडेक्स ट्रांसफ़ॉर्मेशन के तौर पर दिखाया जा सकता है. यह [G,O0,O1] को आउटपुट शेप में मौजूद इंडेक्स के तौर पर लेता है और इसे इनपुट अरे में मौजूद एलिमेंट पर इस तरह मैप करता है:
सबसे पहले, हम G का इस्तेमाल करके, gather indices ऐरे से (X,Y) वेक्टर चुनते हैं.
इसके बाद, इंडेक्स [G,O0,O1] पर मौजूद आउटपुट ऐरे का एलिमेंट, इंडेक्स [X+O0,Y+O1] पर मौजूद इनपुट ऐरे का एलिमेंट बन जाता है.
slice_sizes, [8,6] है. इससे O0 और O1 की रेंज तय होती है. इससे स्लाइस की सीमाएं तय होती हैं.
यह gather ऑपरेशन, G को बैच डाइमेंशन के तौर पर इस्तेमाल करने वाले बैच डाइनैमिक स्लाइस की तरह काम करता है.
इकट्ठा किए गए इंडेक्स, मल्टीडाइमेंशनल हो सकते हैं. उदाहरण के लिए, ऊपर दिए गए उदाहरण का ज़्यादा सामान्य वर्शन, [4,5,2] शेप वाले "gather indices" ऐरे का इस्तेमाल करके इंडेक्स का अनुवाद इस तरह करेगा:
यह फिर से बैच डाइनैमिक स्लाइस G0 और G1 के तौर पर काम करता है. स्लाइस का साइज़ अब भी [8,6] है.
XLA में, इकट्ठा करने की कार्रवाई, ऊपर बताई गई अनौपचारिक सिमैंटिक्स को इन तरीकों से सामान्य बनाती है:
हम कॉन्फ़िगर कर सकते हैं कि आउटपुट शेप में कौनसे डाइमेंशन, ऑफ़सेट डाइमेंशन हैं. ऑफ़सेट डाइमेंशन वे डाइमेंशन होते हैं जिनमें
O0,O1शामिल होते हैं. आखिरी उदाहरण में ऐसा किया गया है. आउटपुट बैच डाइमेंशन (पिछले उदाहरण मेंG0,G1वाले डाइमेंशन) को ऐसे आउटपुट डाइमेंशन के तौर पर तय किया जाता है जो ऑफ़सेट डाइमेंशन नहीं होते.आउटपुट शेप में मौजूद आउटपुट ऑफ़सेट डाइमेंशन की संख्या, इनपुट डाइमेंशन की संख्या से कम हो सकती है. ये "मौजूद नहीं" डाइमेंशन, जिन्हें साफ़ तौर पर
collapsed_slice_dimsके तौर पर लिस्ट किया गया है, उनका स्लाइस साइज़1होना चाहिए. इनका स्लाइस साइज़1है. इसलिए, इनके लिए सिर्फ़0मान्य इंडेक्स है. साथ ही, इन्हें हटाने से कोई अस्पष्टता नहीं होती."Gather Indices" ऐरे से निकाले गए स्लाइस (पिछले उदाहरण में (
X,Y)) में, इनपुट ऐरे के डाइमेंशन की संख्या से कम एलिमेंट हो सकते हैं. साथ ही, साफ़ तौर पर की गई मैपिंग से यह तय होता है कि इंडेक्स को कैसे बढ़ाया जाना चाहिए, ताकि उसमें इनपुट ऐरे के डाइमेंशन की संख्या के बराबर डाइमेंशन हों.
आखिरी उदाहरण के तौर पर, हम tf.gather_nd को लागू करने के लिए (2) और (3) का इस्तेमाल करते हैं:
G0 और G1 का इस्तेमाल, सामान्य तौर पर gather इंडेक्स ऐरे से शुरुआती इंडेक्स को स्लाइस करने के लिए किया जाता है. हालांकि, शुरुआती इंडेक्स में सिर्फ़ एक एलिमेंट, X होता है. इसी तरह, वैल्यू O0 के साथ सिर्फ़ एक आउटपुट ऑफ़सेट इंडेक्स है. हालांकि, इनपुट ऐरे में इंडेक्स के तौर पर इस्तेमाल किए जाने से पहले, इन्हें "Gather Index Mapping" (start_index_map in
the formal description) और "Offset Mapping" (remapped_offset_dims in the
formal description) के मुताबिक [X,0] और [0,O0] में बदल दिया जाता है. इसके बाद, ये [X,O0] में जुड़ जाते हैं. दूसरे शब्दों में कहें, तो आउटपुट इंडेक्स [G0,G1,O0] को इनपुट इंडेक्स [GatherIndices[G0,G1,0],O0] पर मैप किया जाता है. इससे हमें tf.gather_nd के सिमैंटिक मिलते हैं.
इस मामले के लिए slice_sizes [1,11] है. इसका मतलब यह है कि gather indices array में मौजूद हर इंडेक्स X पूरी लाइन चुनता है. साथ ही, नतीजे के तौर पर इन सभी लाइनों को एक साथ जोड़ दिया जाता है.
GetDimensionSize
XlaBuilder::GetDimensionSize भी देखें.
यह फ़ंक्शन, ऑपरेंड के दिए गए डाइमेंशन का साइज़ दिखाता है. ऑपरेंड का आकार, ऐरे जैसा होना चाहिए.
GetDimensionSize(operand, dimension)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
n डाइमेंशन वाला इनपुट अरे |
dimension
|
int64
|
इंटरवल [0, n) में मौजूद ऐसी वैल्यू जो डाइमेंशन के बारे में बताती है |
StableHLO के बारे में जानकारी के लिए, StableHLO - get_dimension_size देखें.
GetTupleElement
XlaBuilder::GetTupleElement भी देखें.
यह कंपाइल-टाइम-कॉन्स्टेंट वैल्यू के साथ टपल में इंडेक्स करता है.
वैल्यू, कंपाइल-टाइम-कॉन्स्टेंट होनी चाहिए, ताकि शेप इन्फ़रेंस से नतीजे की वैल्यू का टाइप तय किया जा सके.
यह C++ में std::get<int N>(t) के जैसा है. कॉन्सेप्ट के तौर पर:
let v: f32[10] = f32[10]{0, 1, 2, 3, 4, 5, 6, 7, 8, 9};
let s: s32 = 5;
let t: (f32[10], s32) = tuple(v, s);
let element_1: s32 = gettupleelement(t, 1); // Inferred shape matches s32.
tf.tuple भी देखें.
GetTupleElement(tuple_data, index)
| आर्ग्यूमेंट | टाइप | सिमैंटिक |
|---|---|---|
tuple_data |
XlaOP |
टपल |
index |
int64 |
टपल के आकार का इंडेक्स |
StableHLO के बारे में जानकारी के लिए, StableHLO - get_tuple_element देखें.
Imag
XlaBuilder::Imag भी देखें.
किसी कॉम्प्लेक्स (या वास्तविक) शेप का एलिमेंट-वाइज़ काल्पनिक हिस्सा. x -> imag(x). अगर ऑपरेंड फ़्लोटिंग पॉइंट टाइप का है, तो 0 दिखाता है.
Imag(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - imag देखें.
इनफ़ीड
XlaBuilder::Infeed भी देखें.
Infeed(shape, config)
| आर्ग्यूमेंट | टाइप | सिमैंटिक |
|---|---|---|
shape
|
Shape
|
Infeed इंटरफ़ेस से पढ़े गए डेटा का आकार. शेप के लेआउट फ़ील्ड को, डिवाइस को भेजे गए डेटा के लेआउट से मेल खाने के लिए सेट किया जाना चाहिए. ऐसा न करने पर, इसका व्यवहार तय नहीं किया जा सकता. |
config |
ज़रूरी नहीं string |
ऑपरेशन का कॉन्फ़िगरेशन. |
यह डिवाइस के इनफ़ीड स्ट्रीमिंग इंटरफ़ेस से एक डेटा आइटम को पढ़ता है. साथ ही, डेटा को दिए गए शेप और लेआउट के तौर पर इंटरप्रेट करता है. इसके बाद, डेटा का XlaOp दिखाता है. कैलकुलेशन में, एक से ज़्यादा Infeed ऑपरेशन की अनुमति है. हालांकि, Infeed ऑपरेशन के बीच कुल ऑर्डर होना चाहिए. उदाहरण के लिए, यहां दिए गए कोड में दो Infeed हैं. इनका कुल ऑर्डर है, क्योंकि while लूप के बीच निर्भरता है.
result1 = while (condition, init = init_value) {
Infeed(shape)
}
result2 = while (condition, init = result1) {
Infeed(shape)
}
नेस्ट किए गए टपल शेप काम नहीं करते. खाली टपल शेप के लिए, Infeed ऑपरेशन का कोई असर नहीं होता. साथ ही, यह डिवाइस के Infeed से कोई डेटा पढ़े बिना आगे बढ़ता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - infeed देखें.
आयोटा
XlaBuilder::Iota भी देखें.
Iota(shape, iota_dimension)
यह डिवाइस पर एक कॉन्स्टेंट लिटरल बनाता है. इससे होस्ट पर ट्रांसफ़र होने वाले डेटा की मात्रा कम हो जाती है. यह फ़ंक्शन, तय किए गए आकार का एक अरे बनाता है. इसमें ऐसी वैल्यू होती हैं जो शून्य से शुरू होती हैं और तय किए गए डाइमेंशन के हिसाब से एक-एक करके बढ़ती हैं. फ़्लोटिंग-पॉइंट टाइप के लिए, जनरेट किया गया ऐरे ConvertElementType(Iota(...)) के बराबर होता है. इसमें Iota इंटिग्रल टाइप का होता है और कन्वर्ज़न फ़्लोटिंग-पॉइंट टाइप का होता है.
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
shape |
Shape |
Iota() से बनाई गई कैटगरी का आकार |
iota_dimension |
int64 |
वह डाइमेंशन जिसके हिसाब से वैल्यू बढ़ानी है. |
उदाहरण के लिए, Iota(s32[4, 8], 0) से यह नतीजा मिलता है
[[0, 0, 0, 0, 0, 0, 0, 0 ],
[1, 1, 1, 1, 1, 1, 1, 1 ],
[2, 2, 2, 2, 2, 2, 2, 2 ],
[3, 3, 3, 3, 3, 3, 3, 3 ]]
Iota(s32[4, 8], 1) का शुल्क देकर, प्रॉडक्ट को लौटाया जा सकता है
[[0, 1, 2, 3, 4, 5, 6, 7 ],
[0, 1, 2, 3, 4, 5, 6, 7 ],
[0, 1, 2, 3, 4, 5, 6, 7 ],
[0, 1, 2, 3, 4, 5, 6, 7 ]]
StableHLO के बारे में जानकारी के लिए, StableHLO - iota देखें.
IsFinite
XlaBuilder::IsFinite भी देखें.
इस फ़ंक्शन से यह जांच की जाती है कि operand का हर एलिमेंट फ़ाइनिट है या नहीं. इसका मतलब है कि वह पॉज़िटिव या नेगेटिव इनफ़िनिटी नहीं है और न ही NaN है. यह फ़ंक्शन, PRED वैल्यू का एक ऐसा कलेक्शन दिखाता है जिसका साइज़ इनपुट के साइज़ के बराबर होता है. इसमें हर एलिमेंट PRED होता है. हालांकि, ऐसा सिर्फ़ तब होता है, जब इनपुट का कोई एलिमेंट फ़ाइनाइट हो.true
IsFinite(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - is_finite देखें.
लॉग
XlaBuilder::Log भी देखें.
हर एलिमेंट का नैचुरल लॉगारिद्म x -> ln(x).
Log(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
लॉग में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Log(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - log देखें.
Log1p
XlaBuilder::Log1p भी देखें.
हर एलिमेंट के लिए, नैचुरल लॉगारिद्म को x -> ln(1+x) से शिफ्ट किया गया है.
Log1p(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Log1p फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Log1p(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - log_plus_one देखें.
लॉजिस्टिक
XlaBuilder::Logistic भी देखें.
हर एलिमेंट के लिए लॉजिस्टिक फ़ंक्शन की गणना x -> logistic(x).
Logistic(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
लॉजिस्टिक फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Logistic(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - लॉजिस्टिक्स देखें.
मैप
XlaBuilder::Map भी देखें.
Map(operands..., computation, dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands |
N XlaOps का क्रम |
T0..T{N-1} टाइप के N ऐरे |
computation
|
XlaComputation
|
टाइप T_0, T_1,
.., T_{N + M -1} -> S की कंप्यूटेशन, जिसमें T टाइप के N पैरामीटर और किसी भी टाइप के M पैरामीटर होते हैं. |
dimensions |
int64 अरे |
मैप किए गए डाइमेंशन का कलेक्शन |
static_operands
|
N XlaOps का क्रम
|
मैप ऑपरेशन के लिए स्टैटिक ऑप्स |
यह फ़ंक्शन, दी गई operands अरे पर स्केलर फ़ंक्शन लागू करता है. इससे एक ही डाइमेंशन का अरे बनता है. इसमें हर एलिमेंट, मैप किए गए फ़ंक्शन का नतीजा होता है. यह फ़ंक्शन, इनपुट अरे के संबंधित एलिमेंट पर लागू होता है.
मैप किया गया फ़ंक्शन, कोई भी कंप्यूटेशन हो सकता है. हालांकि, इसमें यह पाबंदी है कि इसमें T टाइप के N इनपुट और S टाइप का एक आउटपुट होना चाहिए. आउटपुट में ऑपरेंड के डाइमेंशन ही होते हैं. हालांकि, एलिमेंट टाइप T को S से बदल दिया जाता है.
उदाहरण के लिए: Map(op1, op2, op3, computation, par1), इनपुट कलेक्शन में मौजूद हर (मल्टी-डाइमेंशनल) इंडेक्स पर elem_out <-
computation(elem1, elem2, elem3, par1) को मैप करता है, ताकि आउटपुट कलेक्शन जनरेट किया जा सके.
StableHLO के बारे में जानकारी के लिए, StableHLO - map देखें.
ज़्यादा से ज़्यादा
XlaBuilder::Max भी देखें.
यह फ़ंक्शन, lhs और rhs टेंसर पर एलिमेंट-वाइज़ मैक्स ऑपरेशन करता है.
Max(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Max के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट उपलब्ध है:
Max(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - maximum देखें.
कम से कम
XlaBuilder::Min भी देखें.
यह lhs और rhs पर, एलिमेंट के हिसाब से min ऑपरेशन करता है.
Min(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
मिन के लिए, अलग-अलग डाइमेंशन के हिसाब से ब्रॉडकास्ट करने की सुविधा वाला कोई दूसरा वैरिएंट मौजूद है:
Min(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - minimum देखें.
Mul
XlaBuilder::Mul भी देखें.
यह lhs और rhs के हर एलिमेंट का प्रॉडक्ट दिखाता है.
Mul(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Mul के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा वाला कोई दूसरा वैरिएंट मौजूद है:
Mul(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - multiply देखें.
Neg
XlaBuilder::Neg भी देखें.
हर एलिमेंट के हिसाब से नेगेशन x -> -x.
Neg(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - negate देखें
नहीं
XlaBuilder::Not भी देखें.
हर एलिमेंट के लिए लॉजिकल नॉट x -> !(x).
Not(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - not देखें.
OptimizationBarrier
XlaBuilder::OptimizationBarrier भी देखें.
यह बैरियर, किसी भी ऑप्टिमाइज़ेशन पास को कंप्यूटेशन को एक से दूसरी जगह ले जाने से रोकता है.
OptimizationBarrier(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
यह कुकी यह पक्का करती है कि बैरियर के आउटपुट पर निर्भर रहने वाले किसी भी ऑपरेटर से पहले, सभी इनपुट का आकलन किया जाए.
StableHLO के बारे में जानकारी के लिए, StableHLO - optimization_barrier देखें.
या
XlaBuilder::Or भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट के लिए OR ऑपरेशन करता है .
Or(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Or के लिए, ब्रॉडकास्टिंग की अलग-अलग डाइमेंशन वाली सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है Or:
Or(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - or देखें.
आउटफ़ीड
XlaBuilder::Outfeed भी देखें.
यह फ़ंक्शन, आउटफ़ीड में इनपुट लिखता है.
Outfeed(operand, shape_with_layout, outfeed_config)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का कलेक्शन |
shape_with_layout |
Shape |
इससे ट्रांसफ़र किए गए डेटा के लेआउट के बारे में पता चलता है |
outfeed_config |
string |
Outfeed instruction के लिए कॉन्फ़िगरेशन का कॉन्स्टेंट |
shape_with_layout से, हमें उस लेआउट के बारे में पता चलता है जिसे हमें आउटपुट के तौर पर दिखाना है.
StableHLO के बारे में जानकारी के लिए, StableHLO - outfeed देखें.
पैड
XlaBuilder::Pad भी देखें.
Pad(operand, padding_value, padding_config)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का कलेक्शन |
padding_value
|
XlaOp
|
T टाइप का स्केलर, जिसका इस्तेमाल जोड़ी गई
पैडिंग को भरने के लिए किया जाता है |
padding_config
|
PaddingConfig
|
दोनों किनारों पर पैडिंग की मात्रा (कम, ज़्यादा) और हर डाइमेंशन के एलिमेंट के बीच पैडिंग की मात्रा |
यह फ़ंक्शन, दी गई operand ऐरे को बड़ा करता है. इसके लिए, ऐरे के चारों ओर और ऐरे के एलिमेंट के बीच में, दी गई padding_value वैल्यू को पैडिंग के तौर पर इस्तेमाल किया जाता है. padding_config
हर डाइमेंशन के लिए, किनारे की पैडिंग और अंदरूनी पैडिंग की वैल्यू तय करता है.
PaddingConfig, PaddingConfigDimension का दोहराया गया फ़ील्ड है. इसमें हर डाइमेंशन के लिए तीन फ़ील्ड होते हैं: edge_padding_low, edge_padding_high, और interior_padding.
edge_padding_low और edge_padding_high, हर डाइमेंशन के निचले सिरे (इंडेक्स 0 के बगल में) और ऊपरी सिरे (सबसे बड़े इंडेक्स के बगल में) में जोड़े गए पैडिंग की मात्रा के बारे में बताते हैं. किनारे पर मौजूद पैडिंग की वैल्यू नेगेटिव हो सकती है. नेगेटिव पैडिंग की ऐब्सलूट वैल्यू से पता चलता है कि तय किए गए डाइमेंशन से कितने एलिमेंट हटाने हैं.
interior_padding से, हर डाइमेंशन में मौजूद किन्हीं दो एलिमेंट के बीच जोड़ी गई पैडिंग की मात्रा के बारे में पता चलता है. यह नेगेटिव नहीं हो सकती. अंदरूनी पैडिंग, लॉजिक के हिसाब से एज पैडिंग से पहले होती है. इसलिए, नेगेटिव एज पैडिंग के मामले में, एलिमेंट को अंदरूनी पैडिंग वाले ऑपरेंड से हटा दिया जाता है.
अगर एज पैडिंग के सभी पेयर (0, 0) हैं और इंटीरियर पैडिंग की सभी वैल्यू 0 हैं, तो यह ऑपरेशन नो-ऑप है. नीचे दिए गए फ़िगर में, दो डाइमेंशन वाले कलेक्शन के लिए अलग-अलग edge_padding और interior_padding वैल्यू के उदाहरण दिखाए गए हैं.

StableHLO के बारे में जानकारी के लिए, StableHLO - pad देखें.
पैरामीटर
XlaBuilder::Parameter भी देखें.
Parameter, कैलकुलेशन के लिए आर्ग्युमेंट के तौर पर दिए गए इनपुट को दिखाता है.
PartitionID
XlaBuilder::BuildPartitionId भी देखें.
इससे मौजूदा प्रोसेस का partition_id जनरेट होता है.
PartitionID(shape)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
shape |
Shape |
डेटा का आकार |
PartitionID, एचएलओ डंप में दिख सकता है. हालांकि, इसे असली उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
StableHLO के बारे में जानकारी के लिए, StableHLO - partition_id देखें.
PopulationCount
XlaBuilder::PopulationCount भी देखें.
operand के हर एलिमेंट में सेट किए गए बिट की संख्या का हिसाब लगाता है.
PopulationCount(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - popcnt देखें.
Pow
XlaBuilder::Pow भी देखें.
यह फ़ंक्शन, lhs के हर एलिमेंट को rhs के हर एलिमेंट से गुणा करता है.
Pow(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Pow के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट उपलब्ध है:
Pow(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - power पर जाएं.
रियल
XlaBuilder::Real भी देखें.
कॉम्प्लेक्स (या रीयल) शेप का एलिमेंट-वाइज़ रीयल पार्ट. x -> real(x). अगर ऑपरेंड फ़्लोटिंग पॉइंट टाइप का है, तो Real वही वैल्यू दिखाता है.
Real(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - real देखें.
Recv
XlaBuilder::Recv भी देखें.
Recv, RecvWithTokens, और RecvToHost, HLO में कम्यूनिकेशन प्रिमिटिव के तौर पर काम करते हैं. ये ऑप आम तौर पर, एचएलओ डंप में लो-लेवल इनपुट/आउटपुट या क्रॉस-डिवाइस ट्रांसफ़र के हिस्से के तौर पर दिखते हैं. हालांकि, इन्हें असली उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
Recv(shape, handle)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
shape |
Shape |
डेटा पाने के लिए शेप |
handle |
ChannelHandle |
हर भेजने/पाने वाले जोड़े के लिए यूनीक आइडेंटिफ़ायर |
यह एक ही चैनल हैंडल का इस्तेमाल करने वाले किसी अन्य कंप्यूटेशन में, Send निर्देश से दिए गए शेप का डेटा पाता है. यह फ़ंक्शन, मिले हुए डेटा के लिए XlaOp दिखाता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - recv देखें.
RecvDone
HloInstruction::CreateRecv और HloInstruction::CreateRecvDone भी देखें.
Send की तरह ही, Recv ऑपरेशन का क्लाइंट एपीआई, सिंक्रोनस कम्यूनिकेशन को दिखाता है. हालांकि, एसिंक्रोनस डेटा ट्रांसफ़र को चालू करने के लिए, निर्देश को अंदरूनी तौर पर दो एचएलओ निर्देशों (Recv और RecvDone) में बांटा जाता है.
Recv(const Shape& shape, int64 channel_id)
यह कुकी, एक ही channel_id वाले Send निर्देश से डेटा पाने के लिए ज़रूरी संसाधन उपलब्ध कराती है. यह फ़ंक्शन, असाइन किए गए संसाधनों के लिए कॉन्टेक्स्ट दिखाता है. इसका इस्तेमाल, RecvDone निर्देश के ज़रिए डेटा ट्रांसफ़र पूरा होने का इंतज़ार करने के लिए किया जाता है. कॉन्टेक्स्ट, {receive buffer (shape), request
identifier (U32)} का टपल होता है. इसका इस्तेमाल सिर्फ़ RecvDone निर्देश के लिए किया जा सकता है.
Recv निर्देश से बनाए गए कॉन्टेक्स्ट के आधार पर, यह फ़ंक्शन डेटा ट्रांसफ़र पूरा होने का इंतज़ार करता है. इसके बाद, मिले हुए डेटा को दिखाता है.
Reduce
XlaBuilder::Reduce भी देखें.
यह फ़ंक्शन, एक या उससे ज़्यादा अरे पर एक साथ रिडक्शन फ़ंक्शन लागू करता है.
Reduce(operands..., init_values..., computation, dimensions_to_reduce)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands
|
N XlaOp का क्रम
|
T_0,...,
T_{N-1} टाइप के N ऐरे. |
init_values
|
N XlaOp का क्रम
|
T_0,..., T_{N-1} टाइप के N स्केलर. |
computation
|
XlaComputation
|
टाइप T_0,..., T_{N-1}, T_0,
...,T_{N-1} ->
Collate(T_0,...,
T_{N-1}) का कैलकुलेशन. |
dimensions_to_reduce
|
int64 अरे
|
कम किए जाने वाले डाइमेंशन का क्रम से न लगा हुआ कलेक्शन. |
कहां:
- N की वैल्यू 1 से ज़्यादा या इसके बराबर होनी चाहिए.
- कैलकुलेशन "लगभग" सहयोगी होनी चाहिए (नीचे देखें).
- सभी इनपुट ऐरे के डाइमेंशन एक जैसे होने चाहिए.
- सभी शुरुआती वैल्यू,
computationके तहत एक पहचान बनाती हैं. - अगर
N = 1,Collate(T)Tहै. - अगर
N > 1,Collate(T_0, ..., T_{N-1}),Tटाइप केNएलिमेंट का टपल है.
यह ऑपरेशन, हर इनपुट ऐरे के एक या उससे ज़्यादा डाइमेंशन को स्केलर में बदल देता है.
दिखाए गए हर ऐरे के डाइमेंशन की संख्या number_of_dimensions(operand) - len(dimensions) है. इस ऑपरेशन का आउटपुट Collate(Q_0, ..., Q_N) है. यहां Q_i, T_i टाइप का एक ऐरे है. इसके डाइमेंशन के बारे में यहां बताया गया है.
अलग-अलग बैकएंड को, छूट का हिसाब फिर से लगाने की अनुमति होती है. इस वजह से, संख्याओं में अंतर आ सकता है. ऐसा इसलिए होता है, क्योंकि जोड़ जैसे कुछ रिडक्शन फ़ंक्शन, फ़्लोट के लिए एसोसिएटिव नहीं होते. हालांकि, अगर डेटा की रेंज सीमित है, तो फ़्लोटिंग-पॉइंट जोड़, ज़्यादातर व्यावहारिक इस्तेमाल के लिए काफ़ी हद तक एसोसिएटिव होता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - reduce देखें.
उदाहरण
जब [10, 11,
12, 13] वैल्यू वाले एक डाइमेंशन के ऐरे को f (यह computation है) रिडक्शन फ़ंक्शन के साथ कम किया जाता है, तो उसे इस तरह से कैलकुलेट किया जा सकता है
f(10, f(11, f(12, f(init_value, 13)))
हालांकि, इसके अलावा और भी कई वजहें हो सकती हैं. जैसे,
f(init_value, f(f(10, f(init_value, 11)), f(f(init_value, 12), f(init_value, 13))))
नीचे, रिडक्शन को लागू करने के तरीके का एक सामान्य स्यूडो-कोड उदाहरण दिया गया है. इसमें, रिडक्शन कंप्यूटेशन के लिए योग का इस्तेमाल किया गया है और शुरुआती वैल्यू 0 है.
result_shape <- remove all dims in dimensions from operand_shape
# Iterate over all elements in result_shape. The number of r's here is equal
# to the number of dimensions of the result.
for r0 in range(result_shape[0]), r1 in range(result_shape[1]), ...:
# Initialize this result element
result[r0, r1...] <- 0
# Iterate over all the reduction dimensions
for d0 in range(dimensions[0]), d1 in range(dimensions[1]), ...:
# Increment the result element with the value of the operand's element.
# The index of the operand's element is constructed from all ri's and di's
# in the right order (by construction ri's and di's together index over the
# whole operand shape).
result[r0, r1...] += operand[ri... di]
यहां 2D कलेक्शन (मैट्रिक्स) को कम करने का एक उदाहरण दिया गया है. शेप में दो डाइमेंशन हैं. डाइमेंशन 0 का साइज़ 2 है और डाइमेंशन 1 का साइज़ 3 है:

"add" फ़ंक्शन का इस्तेमाल करके, डाइमेंशन 0 या 1 को कम करने पर मिलने वाले नतीजे:

ध्यान दें कि दोनों रिडक्शन के नतीजे 1D ऐरे हैं. डायग्राम में, एक को कॉलम और दूसरे को लाइन के तौर पर दिखाया गया है, ताकि देखने में आसानी हो.
ज़्यादा मुश्किल उदाहरण के लिए, यहां एक 3D ऐरे दिया गया है. इसमें डाइमेंशन की संख्या 3 है. डाइमेंशन 0 का साइज़ 4, डाइमेंशन 1 का साइज़ 2, और डाइमेंशन 2 का साइज़ 3 है. आसानी से समझने के लिए, डाइमेंशन 0 में 1 से 6 तक की वैल्यू को दोहराया गया है.

2D उदाहरण की तरह ही, हम सिर्फ़ एक डाइमेंशन को कम कर सकते हैं. उदाहरण के लिए, अगर हम डाइमेंशन 0 को कम करते हैं, तो हमें दो डाइमेंशन वाला एक ऐसा कलेक्शन मिलता है जिसमें डाइमेंशन 0 की सभी वैल्यू को एक स्केलर में शामिल किया गया है:
| 4 8 12 |
| 16 20 24 |
डाइमेंशन 2 को कम करने पर, हमें दो डाइमेंशन वाली एक ऐसी सरणी मिलती है जिसमें डाइमेंशन 2 की सभी वैल्यू को एक अदिश में शामिल किया गया है:
| 6 15 |
| 6 15 |
| 6 15 |
| 6 15 |
ध्यान दें कि इनपुट में मौजूद बाकी डाइमेंशन का क्रम, आउटपुट में भी बना रहता है. हालांकि, डाइमेंशन की संख्या बदलने की वजह से, कुछ डाइमेंशन को नए नंबर असाइन किए जा सकते हैं.
हम एक साथ कई डाइमेंशन भी कम कर सकते हैं. डाइमेंशन 0 और 1 को कम करने पर, 1D ऐरे [20, 28, 36] मिलता है.
सभी डाइमेंशन में 3D ऐरे को कम करने पर, स्केलर 84 मिलता है.
Variadic Reduce
जब N > 1 होता है, तो reduce फ़ंक्शन को लागू करना थोड़ा ज़्यादा मुश्किल होता है, क्योंकि इसे सभी इनपुट पर एक साथ लागू किया जाता है. ऑपरेंड को इस क्रम में कैलकुलेशन के लिए उपलब्ध कराया जाता है:
- पहले ऑपरेंड के लिए कम की गई वैल्यू
- ...
- Nवें ऑपरेंड के लिए कम की गई वैल्यू
- पहले ऑपरेंड के लिए इनपुट वैल्यू
- ...
- एनवें ऑपरेंड के लिए इनपुट वैल्यू
उदाहरण के लिए, यहां दिए गए रिडक्शन फ़ंक्शन पर विचार करें. इसका इस्तेमाल, एक डाइमेंशन वाले ऐरे के मैक्स और आर्गमैक्स को एक साथ कंप्यूट करने के लिए किया जा सकता है:
f: (Float, Int, Float, Int) -> Float, Int
f(max, argmax, value, index):
if value >= max:
return (value, index)
else:
return (max, argmax)
एक डाइमेंशन वाले इनपुट ऐरे V = Float[N], K = Int[N] और शुरुआती वैल्यू I_V = Float, I_K = Int के लिए, सिर्फ़ इनपुट डाइमेंशन में रिड्यूस करने पर मिलने वाला नतीजा f_(N-1), इस रिकर्सिव ऐप्लिकेशन के बराबर होता है:
f_0 = f(I_V, I_K, V_0, K_0)
f_1 = f(f_0.first, f_0.second, V_1, K_1)
...
f_(N-1) = f(f_(N-2).first, f_(N-2).second, V_(N-1), K_(N-1))
इस फ़ंक्शन को वैल्यू की किसी ऐरे और क्रम से लगे इंडेक्स (यानी कि iota) की किसी ऐरे पर लागू करने से, दोनों ऐरे पर एक साथ काम किया जा सकेगा.साथ ही, यह फ़ंक्शन एक टपल देगा. इस टपल में, सबसे बड़ी वैल्यू और उससे मेल खाने वाला इंडेक्स होगा.
ReducePrecision
XlaBuilder::ReducePrecision भी देखें.
यह फ़ंक्शन, फ़्लोटिंग-पॉइंट वैल्यू को कम सटीक फ़ॉर्मैट (जैसे कि IEEE-FP16) में बदलने और वापस ओरिजनल फ़ॉर्मैट में बदलने के असर को मॉडल करता है. कम सटीक फ़ॉर्मैट में, एक्सपोनेंट और मैंटिसा बिट की संख्या को अपनी मर्ज़ी से तय किया जा सकता है. हालांकि, ऐसा हो सकता है कि सभी बिट साइज़, सभी हार्डवेयर पर काम न करें.
ReducePrecision(operand, exponent_bits, mantissa_bits)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़्लोटिंग-पॉइंट टाइप T की कैटगरी. |
exponent_bits |
int32 |
कम सटीक फ़ॉर्मैट में एक्स्पोनेंट बिट की संख्या |
mantissa_bits |
int32 |
कम सटीक फ़ॉर्मैट में मैंटिसा बिट की संख्या |
नतीजा, T टाइप की एक कैटगरी होती है. इनपुट वैल्यू को, मैंटिसा बिट की दी गई संख्या के साथ दिखाई जा सकने वाली सबसे नज़दीकी वैल्यू में बदला जाता है. इसके लिए, "टाइज़ टू इवन" सिमैंटिक का इस्तेमाल किया जाता है. साथ ही, एक्सपोनेंट बिट की संख्या से तय की गई सीमा से ज़्यादा वैल्यू को पॉज़िटिव या नेगेटिव इनफ़िनिटी पर क्लैंप किया जाता है. NaN वैल्यू सेव रहती हैं. हालांकि, इन्हें कैननिकल NaN वैल्यू में बदला जा सकता है.
कम सटीक फ़ॉर्मैट में कम से कम एक एक्सपोनेंट बिट होना चाहिए, ताकि शून्य वैल्यू को इनफ़िनिटी से अलग किया जा सके. ऐसा इसलिए, क्योंकि दोनों में एक ज़ीरो मैंटिसा होता है. साथ ही, इसमें मैंटिसा बिट की संख्या नेगेटिव नहीं होनी चाहिए. एक्सपोनेंट या मैंटिसा बिट की संख्या, टाइप T के लिए तय की गई वैल्यू से ज़्यादा हो सकती है. ऐसे में, कन्वर्ज़न का वह हिस्सा काम नहीं करता.
StableHLO के बारे में जानकारी के लिए, StableHLO - reduce_precision देखें.
ReduceScatter
XlaBuilder::ReduceScatter भी देखें.
ReduceScatter एक सामूहिक ऑपरेशन है. यह AllReduce ऑपरेशन को असरदार तरीके से पूरा करता है. इसके बाद, नतीजे को shard_count ब्लॉक में बांटकर स्कैटर करता है. रेप्लिका ग्रुप में मौजूद scatter_dimension और रेप्लिका i को ith शार्ड मिलता है.
ReduceScatter(operand, computation, scatter_dimension, shard_count,
replica_groups, channel_id, layout, use_global_device_ids)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
ऐरे या ऐरे का ऐसा टपल जिसमें कोई वैल्यू मौजूद हो. इसका इस्तेमाल रेप्लिका के बीच डेटा को कम करने के लिए किया जाता है. |
computation |
XlaComputation |
कटौती की रकम का हिसाब लगाना |
scatter_dimension |
int64 |
डाइमेंशन को स्कैटर करना है. |
shard_count
|
int64
|
स्प्लिट किए जाने वाले ब्लॉक की संख्या
scatter_dimension |
replica_groups
|
ReplicaGroup वेक्टर
|
जिन ग्रुप के बीच में कमी की गई है |
channel_id
|
ज़रूरी नहीं
ChannelHandle |
क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए चैनल आईडी (ज़रूरी नहीं) |
layout
|
ज़रूरी नहीं Layout
|
user-specified memory layout |
use_global_device_ids |
ज़रूरी नहीं bool |
उपयोगकर्ता के हिसाब से तय किया गया फ़्लैग |
- जब
operand, ऐरे का ट्यूपल होता है, तो ट्यूपल के हर एलिमेंट पर रिड्यूस-स्कैटर किया जाता है. replica_groups, रेप्लिका ग्रुप की एक सूची है. इस सूची में शामिल रेप्लिका ग्रुप के बीच ही डेटा कम किया जाता है. मौजूदा रेप्लिका के लिए रेप्लिका आईडी कोReplicaIdका इस्तेमाल करके वापस पाया जा सकता है. हर ग्रुप में रेप्लिका का क्रम यह तय करता है कि सभी रेप्लिका के लिए कम किए गए डेटा को किस क्रम में बांटा जाएगा.replica_groupsखाली होना चाहिए. ऐसा होने पर, सभी रेप्लिका एक ही ग्रुप से जुड़ी होंगी. इसके अलावा, इसमें रेप्लिका की संख्या के बराबर एलिमेंट होने चाहिए. एक से ज़्यादा रेप्लिका ग्रुप होने पर, उन सभी का साइज़ एक जैसा होना चाहिए. उदाहरण के लिए,replica_groups = {0, 2}, {1, 3}, रेप्लिका0और2के बीच रिडक्शन करता है. इसके बाद,1और3के बीच रिडक्शन करता है. इसके बाद, नतीजे को स्कैटर करता है.shard_countहर रेप्लिका ग्रुप का साइज़ है. हमें इसकी ज़रूरत तब पड़ती है, जबreplica_groupsकी वैल्यू खाली होती है. अगरreplica_groupsखाली नहीं है, तोshard_countकी वैल्यू, हर रेप्लिका ग्रुप के साइज़ के बराबर होनी चाहिए.channel_idका इस्तेमाल क्रॉस-मॉड्यूल कम्यूनिकेशन के लिए किया जाता है: सिर्फ़ एक हीchannel_idवालेreduce-scatterऑपरेशन एक-दूसरे से कम्यूनिकेट कर सकते हैं.layoutलेआउट के बारे में ज़्यादा जानकारी के लिए, xla::shapes देखें.use_global_device_ids, उपयोगकर्ता की ओर से तय किया गया फ़्लैग है. जबfalse(डिफ़ॉल्ट)replica_groupsमें मौजूद संख्याएंReplicaIdहोती हैं, तबtruereplica_groups, (ReplicaID*partition_count+partition_id) के ग्लोबल आईडी को दिखाती हैं. उदाहरण के लिए:- इसमें दो रेप्लिका और चार पार्टीशन हैं,
- replica_groups={ {0,1,4,5},{2,3,6,7} } and use_global_device_ids=true
- group[0] = (0,0), (0,1), (1,0), (1,1)
- group[1] = (0,2), (0,3), (1,2), (1,3)
- यहां हर पेयर (replica_id, partition_id) है.
आउटपुट का आकार, इनपुट के आकार से scatter_dimension गुना छोटा होता है.shard_count उदाहरण के लिए, अगर दो रेप्लिका हैं और ऑपरेंड की वैल्यू, दोनों रेप्लिका पर क्रमशः [1.0, 2.25] और [3.0, 5.25] है, तो इस ऑप से मिलने वाली आउटपुट वैल्यू, जहां scatter_dim 0 है, पहले रेप्लिका के लिए [4.0] और दूसरे रेप्लिका के लिए [7.5] होगी.
StableHLO के बारे में जानकारी के लिए, StableHLO - reduce_scatter पर जाएं.
ReduceScatter - Example 1 - StableHLO
ऊपर दिए गए उदाहरण में, ReduceScatter में दो रेप्लिका हिस्सा ले रहे हैं. हर रेप्लिका पर, ऑपरेंड का आकार f32[2,4] होता है. सभी रेप्लिका में, सभी को कम करने (जोड़ने) की कार्रवाई की जाती है. इससे हर रेप्लिका पर, f32[2,4] शेप की कम की गई वैल्यू मिलती है. इसके बाद, कम की गई इस वैल्यू को डाइमेंशन 1 के हिसाब से दो हिस्सों में बांट दिया जाता है. इसलिए, हर हिस्से का आकार f32[2,2] होता है. प्रोसेस ग्रुप में मौजूद हर रेप्लिका को, ग्रुप में उसकी पोज़िशन के हिसाब से डेटा मिलता है. इस वजह से, हर रेप्लिका पर आउटपुट का आकार f32[2,2] होता है.
ReduceWindow
XlaBuilder::ReduceWindow भी देखें.
यह फ़ंक्शन, N मल्टी-डाइमेंशनल ऐरे के क्रम में मौजूद हर विंडो के सभी एलिमेंट पर रिडक्शन फ़ंक्शन लागू करता है. इससे आउटपुट के तौर पर, N मल्टी-डाइमेंशनल ऐरे का एक या टपल मिलता है. हर आउटपुट ऐरे में उतने ही एलिमेंट होते हैं जितने विंडो की मान्य पोज़िशन की संख्या होती है. पूलिंग लेयर को ReduceWindow के तौर पर दिखाया जा सकता है. Reduce की तरह ही, लागू किया गया computation हमेशा बाईं ओर मौजूद init_values को पास किया जाता है.
ReduceWindow(operands..., init_values..., computation, window_dimensions,
window_strides, padding)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands
|
N XlaOps
|
यह T_0,..., T_{N-1} टाइप की N मल्टी-डाइमेंशनल ऐरे का क्रम होता है. इनमें से हर एक, उस बेस एरिया को दिखाता है जिस पर विंडो रखी गई है. |
init_values
|
N XlaOps
|
रिडक्शन के लिए N शुरुआती वैल्यू. हर N ऑपरेंड के लिए एक वैल्यू. ज़्यादा जानकारी के लिए, कम करें लेख पढ़ें. |
computation
|
XlaComputation
|
T_0,
..., T_{N-1}, T_0, ..., T_{N-1}
-> Collate(T_0, ..., T_{N-1}) टाइप का रिडक्शन फ़ंक्शन, जिसे सभी इनपुट ऑपरेंड के हर विंडो में मौजूद एलिमेंट पर लागू किया जाता है. |
window_dimensions
|
ArraySlice<int64>
|
विंडो डाइमेंशन वैल्यू के लिए पूर्णांकों की कैटगरी |
window_strides
|
ArraySlice<int64>
|
विंडो स्ट्राइड वैल्यू के लिए पूर्णांकों का कलेक्शन |
base_dilations
|
ArraySlice<int64>
|
बेस डाइलेशन वैल्यू के लिए पूर्णांकों की ऐरे |
window_dilations
|
ArraySlice<int64>
|
विंडो के लिए पूर्णांकों की ऐरे डाइलेशन वैल्यू |
padding
|
Padding
|
विंडो के लिए पैडिंग टाइप (Padding::kSame, जो इस तरह से पैड करता है कि अगर स्ट्राइड 1 है, तो आउटपुट का आकार इनपुट के आकार जैसा ही हो या Padding::kValid, जो किसी भी पैडिंग का इस्तेमाल नहीं करता है और विंडो को तब "रोक देता है", जब वह अब फ़िट नहीं होती) |
कहां:
- N की वैल्यू 1 से ज़्यादा या इसके बराबर होनी चाहिए.
- सभी इनपुट ऐरे के डाइमेंशन एक जैसे होने चाहिए.
- अगर
N = 1,Collate(T)Tहै. - अगर
N > 1,Collate(T_0, ..., T_{N-1}),(T0,...T{N-1})टाइप केNएलिमेंट का टपल है.
StableHLO के बारे में जानकारी के लिए, StableHLO - reduce_window देखें.
ReduceWindow - Example 1
इनपुट, [4x6] साइज़ का मैट्रिक्स है. साथ ही, window_dimensions और window_stride_dimensions, दोनों [2x3] हैं.
// Create a computation for the reduction (maximum).
XlaComputation max;
{
XlaBuilder builder(client_, "max");
auto y = builder.Parameter(0, ShapeUtil::MakeShape(F32, {}), "y");
auto x = builder.Parameter(1, ShapeUtil::MakeShape(F32, {}), "x");
builder.Max(y, x);
max = builder.Build().value();
}
// Create a ReduceWindow computation with the max reduction computation.
XlaBuilder builder(client_, "reduce_window_2x3");
auto shape = ShapeUtil::MakeShape(F32, {4, 6});
auto input = builder.Parameter(0, shape, "input");
builder.ReduceWindow(
input,
/*init_val=*/builder.ConstantLiteral(LiteralUtil::MinValue(F32)),
*max,
/*window_dimensions=*/{2, 3},
/*window_stride_dimensions=*/{2, 3},
Padding::kValid);

किसी डाइमेंशन में स्ट्राइड 1 का मतलब है कि डाइमेंशन में किसी विंडो की पोज़िशन, उसकी आस-पास की विंडो से एक एलिमेंट दूर है. यह तय करने के लिए कि कोई भी विंडो एक-दूसरे पर ओवरलैप न हो, window_stride_dimensions को window_dimensions के बराबर होना चाहिए. नीचे दिए गए डायग्राम में, दो अलग-अलग स्ट्राइड वैल्यू का इस्तेमाल दिखाया गया है. पैडिंग को इनपुट के हर डाइमेंशन पर लागू किया जाता है. साथ ही, कैलकुलेशन उसी तरह से की जाती हैं जैसे कि पैडिंग के बाद इनपुट के डाइमेंशन होते हैं.

पैडिंग के एक उदाहरण के लिए, इनपुट ऐरे [10000, 1000, 100, 10, 1] पर डाइमेंशन 3 और स्ट्राइड 2 के साथ, रिड्यूस-विंडो मिनिमम (शुरुआती वैल्यू MAX_FLOAT है) को कंप्यूट करें. पैडिंग kValid, दो मान्य विंडो: [10000, 1000, 100] और [100, 10, 1] पर कम से कम वैल्यू का हिसाब लगाता है. इससे आउटपुट [100, 1] मिलता है. पैडिंग kSame सबसे पहले ऐरे में पैडिंग जोड़ता है, ताकि रिड्यूस-विंडो के बाद का शेप, दोनों ओर शुरुआती एलिमेंट जोड़कर स्ट्राइड वन के लिए इनपुट के जैसा हो जाए. इससे [MAX_VALUE, 10000, 1000, 100, 10, 1,
MAX_VALUE] मिलता है. पैडिंग वाले ऐरे पर reduce-window फ़ंक्शन चलाने पर, तीन विंडो [MAX_VALUE, 10000, 1000], [1000, 100, 10], [10, 1, MAX_VALUE] पर काम होता है. इसके बाद, [1000, 10, 1] मिलता है.
रिडक्शन फ़ंक्शन के आकलन का क्रम मनमाना होता है और यह गैर-निर्धारित हो सकता है. इसलिए, रिडक्शन फ़ंक्शन को रीअसोसिएशन के लिए ज़्यादा संवेदनशील नहीं होना चाहिए. ज़्यादा जानकारी के लिए, Reduce के संदर्भ में, असोसिएटिविटी के बारे में चर्चा देखें.
ReduceWindow - Example 2 - StableHLO
ऊपर दिए गए उदाहरण में:
इनपुट) ऑपरेंड का इनपुट शेप S32[3,2] है. इसकी वैल्यू [[1,2],[3,4],[5,6]] है
पहला चरण) लाइन डाइमेंशन के साथ फ़ैक्टर 2 का इस्तेमाल करके, बेस डाइलेशन करने पर ऑपरेंड की हर लाइन के बीच में छेद बन जाते हैं. डाइलेशन के बाद, सबसे ऊपर दो लाइनों और सबसे नीचे एक लाइन की पैडिंग लागू की जाती है. इस वजह से, टेंसर की लंबाई बढ़ जाती है.
दूसरा चरण) [2,1] शेप की एक विंडो तय की जाती है. इसमें विंडो का डाइलेशन [3,1] होता है. इसका मतलब है कि हर विंडो, एक ही कॉलम से दो एलिमेंट चुनती है. हालांकि, दूसरा एलिमेंट पहले एलिमेंट के ठीक नीचे मौजूद न होकर, उससे तीन लाइन नीचे मौजूद होता है.
तीसरे चरण में, विंडो को स्ट्राइड [4,1] के साथ ऑपरेंड पर स्लाइड किया जाता है. इससे विंडो एक बार में चार लाइनें नीचे की ओर जाती है. वहीं, हॉरिज़ॉन्टल तौर पर एक बार में एक कॉलम आगे बढ़ता है. पैडिंग सेल में init_value (इस मामले में init_value = 0) भरा जाता है. डाइलटेशन सेल में मौजूद वैल्यू को अनदेखा किया जाता है.
स्ट्राइड और पैडिंग की वजह से, कुछ विंडो सिर्फ़ शून्य और होल को ओवरलैप करती हैं, जबकि अन्य विंडो असली इनपुट वैल्यू को ओवरलैप करती हैं.
चौथा चरण) हर विंडो में, एलिमेंट को reduction फ़ंक्शन (a, b) → a + b का इस्तेमाल करके जोड़ा जाता है. यह फ़ंक्शन, शुरुआती वैल्यू 0 से शुरू होता है. ऊपर की दो विंडो में सिर्फ़ पैडिंग और छेद दिखते हैं. इसलिए, इनके नतीजे 0 हैं. नीचे दिए गए विंडो, इनपुट से 3 और 4 वैल्यू कैप्चर करते हैं और उन्हें नतीजों के तौर पर दिखाते हैं.
नतीजे) फ़ाइनल आउटपुट का साइज़ S32[2,2] है. इसकी वैल्यू ये हैं: [[0,0],[3,4]]
Rem
XlaBuilder::Rem भी देखें.
यह फ़ंक्शन, डिविडेंड lhs और डिवाइज़र rhs के हर एलिमेंट का शेषफल निकालता है.
नतीजे का साइन, भाज्य से लिया जाता है. साथ ही, नतीजे की ऐब्सलूट वैल्यू हमेशा भाजक की ऐब्सलूट वैल्यू से कम होती है.
Rem(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Rem के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट उपलब्ध है:
Rem(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - remainder देखें.
ReplicaId
XlaBuilder::ReplicaId भी देखें.
रेप्लिका का यूनीक आईडी (U32 स्केलर) दिखाता है.
ReplicaId()
हर रेप्लिका का यूनीक आईडी, बिना हस्ताक्षर वाला पूर्णांक होता है. यह [0, N) इंटरवल में होता है, जहां N रेप्लिका की संख्या होती है. सभी रेप्लिका एक ही प्रोग्राम चला रहे हैं. इसलिए, प्रोग्राम में ReplicaId() कॉल करने पर, हर रेप्लिका पर अलग-अलग वैल्यू दिखेगी.
StableHLO के बारे में जानकारी के लिए, StableHLO - replica_id देखें.
नए आकार में ढालना
XlaBuilder::Reshape भी देखें.
और Collapse कार्रवाई.
किसी ऐरे के डाइमेंशन को नए कॉन्फ़िगरेशन में बदलता है.
Reshape(operand, dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
टाइप T का कलेक्शन |
dimensions |
int64 वेक्टर |
नए डाइमेंशन के साइज़ का वेक्टर |
रीशेप फ़ंक्शन, किसी ऐरे को डेटा वैल्यू के एक-डाइमेंशन वाले वेक्टर में बदलता है. इसके बाद, इस वेक्टर को नए शेप में बदलता है. इनपुट आर्ग्युमेंट, T टाइप का कोई भी ऐरे, डाइमेंशन इंडेक्स का कंपाइल-टाइम-कॉन्स्टेंट वेक्टर, और नतीजे के लिए डाइमेंशन के साइज़ का कंपाइल-टाइम-कॉन्स्टेंट वेक्टर होता है.
dimensions वेक्टर से, आउटपुट ऐरे का साइज़ तय होता है. dimensions में इंडेक्स 0 पर मौजूद वैल्यू, डाइमेंशन 0 का साइज़ होती है. इंडेक्स 1 पर मौजूद वैल्यू, डाइमेंशन 1 का साइज़ होती है. इसी तरह, आगे भी यह क्रम जारी रहता है. dimensions डाइमेंशन का प्रॉडक्ट, ऑपरेंड के डाइमेंशन साइज़ के प्रॉडक्ट के बराबर होना चाहिए. dimensions फ़ंक्शन की मदद से, छोटे किए गए अरे को मल्टीडाइमेंशनल अरे में बदलते समय, dimensions में मौजूद डाइमेंशन को सबसे कम बदलाव वाले (सबसे अहम) से लेकर सबसे ज़्यादा बदलाव वाले (सबसे कम अहम) तक के क्रम में लगाया जाता है.
उदाहरण के लिए, मान लें कि v, 24 एलिमेंट की एक शृंखला है:
let v = f32[4x2x3] { { {10, 11, 12}, {15, 16, 17} },
{ {20, 21, 22}, {25, 26, 27} },
{ {30, 31, 32}, {35, 36, 37} },
{ {40, 41, 42}, {45, 46, 47} } };
let v012_24 = Reshape(v, {24});
then v012_24 == f32[24] {10, 11, 12, 15, 16, 17, 20, 21, 22, 25, 26, 27,
30, 31, 32, 35, 36, 37, 40, 41, 42, 45, 46, 47};
let v012_83 = Reshape(v, {8,3});
then v012_83 == f32[8x3] { {10, 11, 12}, {15, 16, 17},
{20, 21, 22}, {25, 26, 27},
{30, 31, 32}, {35, 36, 37},
{40, 41, 42}, {45, 46, 47} };
खास मामले के तौर पर, reshape फ़ंक्शन किसी सिंगल-एलिमेंट ऐरे को स्केलर में बदल सकता है. इसके उलट, यह किसी स्केलर को सिंगल-एलिमेंट ऐरे में भी बदल सकता है. उदाहरण के लिए,
Reshape(f32[1x1] { {5} }, {}) == 5;
Reshape(5, {1,1}) == f32[1x1] { {5} };
StableHLO के बारे में जानकारी के लिए, StableHLO - reshape देखें.
रीशेप (एक्सप्लिसिट)
XlaBuilder::Reshape भी देखें.
Reshape(shape, operand)
रीशेप करने वाला ऐसा ऑप जो साफ़ तौर पर टारगेट शेप का इस्तेमाल करता है.
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
shape |
Shape |
टाइप T का आउटपुट शेप |
operand |
XlaOp |
टाइप T का कलेक्शन |
रेव (रिवर्स)
XlaBuilder::Rev भी देखें.
Rev(operand, dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
टाइप T का कलेक्शन |
dimensions |
ArraySlice<int64> |
रिवर्स करने के लिए डाइमेंशन |
यह फ़ंक्शन, operand ऐरे में मौजूद एलिमेंट के क्रम को उलट देता है. ऐसा, तय किए गए dimensions के हिसाब से किया जाता है. इससे, उसी शेप का आउटपुट ऐरे जनरेट होता है. मल्टीडाइमेंशनल इंडेक्स पर मौजूद ऑपरेंड कलेक्शन का हर एलिमेंट, ट्रांसफ़ॉर्म किए गए इंडेक्स पर मौजूद आउटपुट कलेक्शन में सेव किया जाता है. मल्टीडाइमेंशनल इंडेक्स को बदलने के लिए, हर डाइमेंशन में इंडेक्स को उलट दिया जाता है. उदाहरण के लिए, अगर N साइज़ वाला कोई डाइमेंशन, उलटने वाले डाइमेंशन में से एक है, तो उसका इंडेक्स i, N - 1 - i में बदल जाता है.
Rev ऑपरेशन का इस्तेमाल, न्यूरल नेटवर्क में ग्रेडिएंट कंप्यूटेशन के दौरान, दो विंडो डाइमेंशन के साथ कनवोल्यूशन वेट ऐरे को उलटने के लिए किया जाता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - reverse देखें.
RngNormal
XlaBuilder::RngNormal भी देखें.
यह फ़ंक्शन, दिए गए साइज़ का आउटपुट बनाता है. इसमें सामान्य डिस्ट्रिब्यूशन के हिसाब से, रैंडम नंबर जनरेट किए जाते हैं. \(N(\mu, \sigma)\) पैरामीटर \(\mu\) और \(\sigma\), और आउटपुट शेप में फ़्लोटिंग पॉइंट एलिमेंटल टाइप होना चाहिए. इसके अलावा, पैरामीटर की वैल्यू स्केलर होनी चाहिए.
RngNormal(mu, sigma, shape)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
mu |
XlaOp |
T टाइप का स्केलर, जो जनरेट की गई संख्याओं का औसत बताता है |
sigma
|
XlaOp
|
टाइप T का स्केलर, जो जनरेट किए गए डेटा के स्टैंडर्ड डेविएशन के बारे में बताता है |
shape |
Shape |
टाइप T का आउटपुट शेप |
StableHLO के बारे में जानकारी के लिए, StableHLO - rng देखें.
RngUniform
XlaBuilder::RngUniform भी देखें.
यह फ़ंक्शन, दिए गए साइज़ का आउटपुट बनाता है. इसमें, \([a,b)\)इंटरवल में यूनिफ़ॉर्म डिस्ट्रिब्यूशन के हिसाब से जनरेट की गई रैंडम संख्याएं होती हैं. पैरामीटर और आउटपुट एलिमेंट का टाइप, बूलियन टाइप, इंटिग्रल टाइप या फ़्लोटिंग पॉइंट टाइप होना चाहिए. साथ ही, टाइप एक जैसे होने चाहिए. सीपीयू और जीपीयू बैकएंड, फ़िलहाल सिर्फ़ F64, F32, F16, BF16, S64, U64, S32, और U32 के साथ काम करते हैं. इसके अलावा, पैरामीटर की वैल्यू स्केलर होनी चाहिए. अगर \(b <= a\) नतीजा, लागू करने के तरीके पर निर्भर करता है.
RngUniform(a, b, shape)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
a |
XlaOp |
टी टाइप का स्केलर, जो इंटरवल की निचली सीमा तय करता है |
b |
XlaOp |
टी टाइप का स्केलर, जो इंटरवल की ऊपरी सीमा तय करता है |
shape |
Shape |
टाइप T का आउटपुट शेप |
StableHLO के बारे में जानकारी के लिए, StableHLO - rng देखें.
RngBitGenerator
XlaBuilder::RngBitGenerator भी देखें.
यह फ़ंक्शन, दिए गए आकार का आउटपुट जनरेट करता है. इसमें बताए गए एल्गोरिदम (या बैकएंड डिफ़ॉल्ट) का इस्तेमाल करके, एक जैसे रैंडम बिट भरे जाते हैं. साथ ही, यह अपडेट की गई स्थिति (शुरुआती स्थिति के आकार के साथ) और जनरेट किए गए रैंडम डेटा को दिखाता है.
शुरुआती स्थिति, मौजूदा रैंडम नंबर जनरेशन की शुरुआती स्थिति होती है. यह और ज़रूरी शेप और मान्य वैल्यू, इस्तेमाल किए गए एल्गोरिदम पर निर्भर करती हैं.
आउटपुट, शुरुआती स्थिति का डिटरमिनिस्टिक फ़ंक्शन होता है. हालांकि, यह ज़रूरी नहीं है कि यह बैकएंड और कंपाइलर के अलग-अलग वर्शन के बीच डिटरमिनिस्टिक हो.
RngBitGenerator(algorithm, initial_state, shape)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
algorithm |
RandomAlgorithm |
इस्तेमाल किया जाने वाला PRNG एल्गोरिदम. |
initial_state |
XlaOp |
PRNG एल्गोरिदम के लिए शुरुआती स्थिति. |
shape |
Shape |
जनरेट किए गए डेटा के लिए आउटपुट शेप. |
algorithm के लिए उपलब्ध वैल्यू:
rng_default: बैकएंड के हिसाब से एल्गोरिदम, जिसमें बैकएंड के हिसाब से शेप की ज़रूरी शर्तें होती हैं.rng_three_fry: ThreeFry काउंटर-आधारित PRNG एल्गोरिदम.initial_stateशेपu64[2]है और इसकी वैल्यू कुछ भी हो सकती है. Salmon et al. SC 2011. पैरलल रैंडम नंबर: इन्हें जनरेट करना बेहद आसान है.rng_philox: समानांतर रूप से रैंडम नंबर जनरेट करने के लिए, Philox एल्गोरिदम.initial_stateशेप, मनमुताबिक वैल्यू के साथu64[3]है. Salmon et al. SC 2011. पैरलल रैंडम नंबर: इन्हें जनरेट करना बेहद आसान है.
StableHLO के बारे में जानकारी के लिए, StableHLO - rng_bit_generator देखें.
RngGetAndUpdateState
HloInstruction::CreateRngGetAndUpdateState भी देखें.
अलग-अलग Rng ऑपरेशनों के एपीआई को, अंदरूनी तौर पर एचएलओ निर्देशों में बांटा जाता है. इनमें RngGetAndUpdateState भी शामिल है.
RngGetAndUpdateState, HLO में एक प्रिमिटिव के तौर पर काम करता है. यह कार्रवाई, एचएलओ डंप में दिख सकती है. हालांकि, इसे असली उपयोगकर्ताओं को मैन्युअल तरीके से नहीं बनाना चाहिए.
राउंड
XlaBuilder::Round भी देखें.
हर एलिमेंट को पूर्णांक में बदलता है. अगर कोई संख्या दो पूर्णांकों के बीच में है, तो उसे शून्य से दूर वाले पूर्णांक में बदलता है.
Round(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
RoundNearestAfz
XlaBuilder::RoundNearestAfz भी देखें.
यह फ़ंक्शन, हर एलिमेंट को निकटतम पूर्णांक में बदलता है. अगर कोई संख्या दो पूर्णांकों के बीच में है, तो उसे शून्य से दूर वाले पूर्णांक में बदलता है.
RoundNearestAfz(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - round_nearest_afz देखें.
RoundNearestEven
XlaBuilder::RoundNearestEven भी देखें.
हर एलिमेंट को राउंड किया जाता है. साथ ही, टाई होने पर सबसे नज़दीकी सम संख्या को चुना जाता है.
RoundNearestEven(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - round_nearest_even देखें.
Rsqrt
XlaBuilder::Rsqrt भी देखें.
स्क्वेयर रूट ऑपरेशन x -> 1.0 / sqrt(x) का एलिमेंट-वाइज़ रेसिप्रोकल.
Rsqrt(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Rsqrt फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Rsqrt(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - rsqrt देखें.
स्कैन करें
XlaBuilder::Scan भी देखें.
यह फ़ंक्शन, किसी दिए गए डाइमेंशन में मौजूद ऐरे पर रिडक्शन फ़ंक्शन लागू करता है. इससे फ़ाइनल वैल्यू और इंटरमीडिएट वैल्यू का ऐरे जनरेट होता है.
Scan(inputs..., inits..., to_apply, scan_dimension,
is_reverse, is_associative)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
inputs |
m XlaOp का क्रम |
स्कैन किए जाने वाले कलेक्शन. |
inits |
k XlaOp का क्रम |
शुरुआती कैरी. |
to_apply |
XlaComputation |
टाइप i_0, ..., i_{m-1}, c_0, ..., c_{k-1} -> (o_0, ..., o_{n-1}, c'_0, ..., c'_{k-1}) का कैलकुलेशन. |
scan_dimension |
int64 |
वह डाइमेंशन जिसे स्कैन करना है. |
is_reverse |
bool |
अगर यह विकल्प चुना जाता है, तो उल्टे क्रम में स्कैन करें. |
is_associative |
bool (ट्राय-स्टेट) |
अगर सही है, तो ऑपरेशन एसोसिएटिव है. |
to_apply फ़ंक्शन को inputs में मौजूद एलिमेंट पर क्रम से लागू किया जाता है. साथ ही, scan_dimension पर भी लागू किया जाता है. अगर is_reverse की वैल्यू false है, तो एलिमेंट को 0 से N-1 के क्रम में प्रोसेस किया जाता है. यहां N, scan_dimension का साइज़ है. अगर is_reverse की वैल्यू true है, तो एलिमेंट को N-1 से लेकर 0 तक प्रोसेस किया जाता है.
to_apply फ़ंक्शन, m + k ऑपरेंड लेता है:
inputsकेmमौजूदा एलिमेंट.kमें पिछली वैल्यू (या पहले एलिमेंट के लिएinits) होती है.
to_apply फ़ंक्शन, n + k वैल्यू का टपल दिखाता है:
outputsकेnएलिमेंट.kनई कैरी वैल्यू.
स्कैन ऑपरेशन से, n + k वैल्यू का टपल मिलता है:
nआउटपुट ऐरे, जिनमें हर चरण के लिए आउटपुट वैल्यू होती हैं.- सभी एलिमेंट प्रोसेस होने के बाद, फ़ाइनल
kमें वैल्यू दिखती हैं.
m इनपुट के टाइप, स्कैन डाइमेंशन के साथ to_apply के पहले m पैरामीटर के टाइप से मेल खाने चाहिए. n के आउटपुट के टाइप, to_apply के पहले n के रिटर्न वैल्यू के टाइप से मेल खाने चाहिए. साथ ही, इसमें एक अतिरिक्त स्कैन डाइमेंशन होना चाहिए. सभी इनपुट और आउटपुट में मौजूद अतिरिक्त स्कैन डाइमेंशन का साइज़ N एक जैसा होना चाहिए. आखिरी k पैरामीटर के टाइप और to_apply की रिटर्न वैल्यू के साथ-साथ k के इनिट का टाइप मेल खाना चाहिए.
उदाहरण के लिए (m, n, k == 1, N == 3), शुरुआती कैरी i, इनपुट [a, b, c], फ़ंक्शन f(x, c) -> (y, c'), और scan_dimension=0, is_reverse=false के लिए:
- सबसे पहले:
f(a, i) -> (y0, c0) - पहला चरण:
f(b, c0) -> (y1, c1) - दूसरा चरण:
f(c, c1) -> (y2, c2)
Scan का आउटपुट ([y0, y1, y2], c2) है.
स्कैटर
XlaBuilder::Scatter भी देखें.
XLA स्कैटर ऑपरेशन, नतीजों का एक क्रम जनरेट करता है. ये नतीजे, इनपुट ऐरे operands की वैल्यू होती हैं. इनमें कई स्लाइस (scatter_indices में बताए गए इंडेक्स पर) को update_computation का इस्तेमाल करके, updates में मौजूद वैल्यू के क्रम से अपडेट किया जाता है.
Scatter(operands..., scatter_indices, updates..., update_computation,
dimension_numbers, indices_are_sorted, unique_indices)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands |
N XlaOp का क्रम |
T_0, ..., T_N टाइप के N ऐरे, जिनमें डेटा को बिखेरना है. |
scatter_indices |
XlaOp |
वह अरे जिसमें उन स्लाइस के शुरुआती इंडेक्स शामिल हैं जिन्हें स्कैटर किया जाना है. |
updates |
N XlaOp का क्रम |
T_0, ..., T_N टाइप के N ऐरे. updates[i] में वे वैल्यू शामिल होती हैं जिनका इस्तेमाल operands[i] को स्कैटर करने के लिए किया जाना चाहिए. |
update_computation |
XlaComputation |
इनपुट ऐरे में मौजूद वैल्यू और स्कैटर के दौरान हुए अपडेट को एक साथ इस्तेमाल करने के लिए, इस कंप्यूटेशन का इस्तेमाल किया जाता है. यह कंप्यूटेशन T_0, ..., T_N, T_0, ..., T_N -> Collate(T_0, ..., T_N) टाइप का होना चाहिए. |
index_vector_dim |
int64 |
scatter_indices में मौजूद वह डाइमेंशन जिसमें शुरुआती इंडेक्स शामिल हैं. |
update_window_dims |
ArraySlice<int64> |
updates शेप में मौजूद डाइमेंशन का सेट, जो विंडो डाइमेंशन हैं. |
inserted_window_dims |
ArraySlice<int64> |
विंडो डाइमेंशन का वह सेट जिसे updates शेप में डाला जाना चाहिए. |
scatter_dims_to_operand_dims |
ArraySlice<int64> |
यह स्कैटर इंडेक्स से लेकर ऑपरेंड इंडेक्स स्पेस तक का डाइमेंशन मैप होता है. इस कलेक्शन को i को i पर मैप करने के तौर पर समझा जाता है.scatter_dims_to_operand_dims[i] यह एक-से-एक और कुल होना चाहिए. |
dimension_number |
ScatterDimensionNumbers |
स्कैटर ऑपरेशन के लिए डाइमेंशन नंबर |
indices_are_sorted |
bool |
क्या इंडेक्स को कॉलर के हिसाब से क्रम से लगाने की गारंटी है. |
unique_indices |
bool |
क्या कॉलर इस बात की गारंटी देता है कि इंडेक्स यूनीक हैं. |
कहां:
- N की वैल्यू 1 से ज़्यादा या इसके बराबर होनी चाहिए.
operands[0], ...,operands[N-1] के डाइमेंशन एक जैसे होने चाहिए.updates[0], ...,updates[N-1] के डाइमेंशन एक जैसे होने चाहिए.- अगर
N = 1,Collate(T)Tहै. - अगर
N > 1,Collate(T_0, ..., T_N),Tटाइप केNएलिमेंट का टपल है.
अगर index_vector_dim, scatter_indices.rank के बराबर है, तो हम scatter_indices को 1 डाइमेंशन के तौर पर मानते हैं.
हम update_scatter_dims टाइप ArraySlice<int64> को updates शेप में मौजूद डाइमेंशन के सेट के तौर पर तय करते हैं. ये डाइमेंशन, update_window_dims में नहीं होते हैं और बढ़ते क्रम में होते हैं.
स्कैटर के आर्ग्युमेंट में, इन शर्तों का पालन किया जाना चाहिए:
हर
updatesऐरे मेंupdate_window_dims.size + scatter_indices.rank - 1डाइमेंशन होने चाहिए.हर
updatesकलेक्शन में मौजूद डाइमेंशनiकी सीमाएं, यहां दी गई शर्तों के मुताबिक होनी चाहिए:- अगर
i,update_window_dimsमें मौजूद है (यानी कि किसीkके लिएupdate_window_dims[k] के बराबर है), तोupdatesमें मौजूद डाइमेंशनiकी सीमा,inserted_window_dimsको ध्यान में रखने के बाद,operandकी सीमा से ज़्यादा नहीं होनी चाहिए. इसका मतलब है किadjusted_window_bounds[k], जहांadjusted_window_boundsमेंoperandकी सीमाएं शामिल हैं और इंडेक्सinserted_window_dimsपर मौजूद सीमाएं हटा दी गई हैं. - अगर
i,update_scatter_dimsमें मौजूद है (यानी कि किसीkके लिएupdate_scatter_dims[k] के बराबर है), तोupdatesमें डाइमेंशनiकी सीमा,scatter_indicesकी संबंधित सीमा के बराबर होनी चाहिए. इसमेंindex_vector_dimको शामिल नहीं किया जाता (यानी कि अगरk<index_vector_dimहै, तोscatter_indices.shape.dims[k] और अगर ऐसा नहीं है, तोscatter_indices.shape.dims[k+1]).
- अगर
update_window_dimsबढ़ते क्रम में होना चाहिए. इसमें कोई भी डाइमेंशन नंबर दोहराया नहीं जाना चाहिए. साथ ही, यह[0, updates.rank)की सीमा में होना चाहिए.inserted_window_dimsबढ़ते क्रम में होना चाहिए. इसमें कोई भी डाइमेंशन नंबर दोहराया नहीं जाना चाहिए. साथ ही, यह[0, operand.rank)की सीमा में होना चाहिए.operand.rankकी वैल्यू,update_window_dims.sizeऔरinserted_window_dims.sizeके योग के बराबर होनी चाहिए.scatter_dims_to_operand_dims.size,scatter_indices.shape.dims[index_vector_dim] के बराबर होना चाहिए. साथ ही, इसकी वैल्यू[0, operand.rank)की रेंज में होनी चाहिए.
हर updates कलेक्शन में मौजूद किसी इंडेक्स U के लिए, उस operands कलेक्शन में मौजूद इंडेक्स I का हिसाब इस तरह लगाया जाता है जिसमें यह अपडेट लागू करना है:
- मान लें कि
G= {U[k] forkinupdate_scatter_dims}.scatter_indicesऐरे में इंडेक्स वेक्टरSको खोजने के लिएGका इस्तेमाल करें, ताकिS[i] =scatter_indices[Combine(G,i)] हो. यहां Combine(A, b), A मेंindex_vector_dimपोज़िशन पर b को डालता है. scatter_dims_to_operand_dimsमैप का इस्तेमाल करके,SकोoperandमेंSकी मदद सेSमें इंडेक्सSinबनाएं. ज़्यादा फ़ॉर्मल तरीके से:Sin[scatter_dims_to_operand_dims[k]] =S[k] ifk<scatter_dims_to_operand_dims.size.Sin[_] =0.
Uमें मौजूद इंडेक्स कोinserted_window_dimsके हिसाब सेupdate_window_dimsपर बिखेरकर, हरoperandsऐरे में एक इंडेक्सWinबनाएं. ज़्यादा फ़ॉर्मल तरीके से:Win[window_dims_to_operand_dims(k)] =U[k] ifkis inupdate_window_dims, wherewindow_dims_to_operand_dimsis the monotonic function with domain [0,update_window_dims.size) and range [0,operand.rank) \inserted_window_dims. (उदाहरण के लिए, अगरupdate_window_dims.size,4है,operand.rank,6है, औरinserted_window_dims, {0,2} है, तोwindow_dims_to_operand_dims, {0→1,1→3,2→4,3→5} है).Win[_] =0.
I,Win+Sinहै. यहां + का मतलब है कि हर एलिमेंट को अलग-अलग जोड़ा गया है.
संक्षेप में, स्कैटर ऑपरेशन को इस तरह से परिभाषित किया जा सकता है.
outputकोoperandsसे शुरू करें. इसका मतलब है कि सभी इंडेक्सJके लिए,operands[J] ऐरे में मौजूद सभी इंडेक्सOके लिए:
output[J][O] =operands[J][O]updates[J] ऐरे में मौजूद हर इंडेक्सUऔरoperand[J] ऐरे में मौजूद उससे जुड़े इंडेक्सOके लिए, अगरO,outputके लिए मान्य इंडेक्स है, तो:
(output[0][O], ...,output[N-1][O]) =update_computation(output[0][O], ..., ,output[N-1][O],updates[0][U], ...,updates[N-1][U])
अपडेट लागू करने का क्रम तय नहीं होता. इसलिए, जब updates में मौजूद कई इंडेक्स, operands में मौजूद एक ही इंडेक्स को रेफ़र करते हैं, तो output में मौजूद उससे जुड़ी वैल्यू तय नहीं की जा सकेगी.
ध्यान दें कि update_computation में पास किया गया पहला पैरामीटर, हमेशा output कलेक्शन की मौजूदा वैल्यू होगा. वहीं, दूसरा पैरामीटर हमेशा updates कलेक्शन की वैल्यू होगा. यह खास तौर पर उन मामलों में ज़रूरी है जहां update_computation, कम्यूटेटिव नहीं है.
अगर indices_are_sorted को 'सही है' पर सेट किया जाता है, तो XLA यह मान सकता है कि उपयोगकर्ता ने scatter_indices को क्रम से लगाया है. क्रम से लगाने का मतलब है कि scatter_dims_to_operand_dims के हिसाब से वैल्यू को बढ़ाकर क्रम से लगाया गया है. अगर ऐसा नहीं होता है, तो सिमैंटिक को लागू करने के तरीके के बारे में जानकारी दी जाती है.
अगर unique_indices को 'सही है' पर सेट किया जाता है, तो XLA यह मान सकता है कि सभी एलिमेंट अलग-अलग हैं. इसलिए, XLA नॉन-ऐटॉमिक ऑपरेशंस का इस्तेमाल कर सकता है. अगर unique_indices को 'सही है' पर सेट किया जाता है और इंडेक्स अलग-अलग नहीं हैं, तो सिमैंटिक्स को लागू करने के लिए तय किया जाता है.
अनौपचारिक तौर पर, स्कैटर ऑप को गैदर ऑप का उल्टा माना जा सकता है. इसका मतलब है कि स्कैटर ऑप, इनपुट में मौजूद उन एलिमेंट को अपडेट करता है जिन्हें संबंधित गैदर ऑप ने निकाला है.
अनौपचारिक ब्यौरे और उदाहरणों के बारे में ज़्यादा जानने के लिए, Gather में जाकर "अनौपचारिक ब्यौरा" सेक्शन देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - scatter देखें.
स्कैटर - पहला उदाहरण - StableHLO
ऊपर दी गई इमेज में, टेबल की हर लाइन, अपडेट इंडेक्स के एक उदाहरण को दिखाती है. आइए, बाईं ओर(अपडेट इंडेक्स) से दाईं ओर(नतीजे का इंडेक्स) तक, सिलसिलेवार तरीके से समीक्षा करें:
इनपुट) input का आकार S32[2,3,4,2] है. scatter_indices का आकार S64[2,2,3,2] है. updates का आकार S32[2,2,3,1,2] है.
अपडेट इंडेक्स) इनपुट के तौर पर हमें update_window_dims:[3,4] दिया गया है. इससे हमें पता चलता है कि updates के डाइमेंशन 3 और 4, विंडो डाइमेंशन हैं. इन्हें पीले रंग में हाइलाइट किया गया है. इससे हमें यह पता चलता है कि update_scatter_dims = [0,1,2].
अपडेट स्कैटर इंडेक्स) से हमें हर एक के लिए एक्सट्रैक्ट किया गया updated_scatter_dims दिखता है.
(अपडेट इंडेक्स कॉलम का गैर-पीला हिस्सा)
स्टार्ट इंडेक्स) scatter_indices टेंसर इमेज को देखने से पता चलता है कि पिछले चरण (अपडेट स्कैटर इंडेक्स) से मिली वैल्यू, हमें स्टार्ट इंडेक्स की जगह की जानकारी देती हैं. index_vector_dim से हमें starting_indices के डाइमेंशन के बारे में भी पता चलता है, जिसमें शुरुआती इंडेक्स शामिल होते हैं. scatter_indices के लिए, यह डाइमेंशन 3 है और इसका साइज़ 2 है.
फ़ुल स्टार्ट इंडेक्स) scatter_dims_to_operand_dims = [2,1] से पता चलता है कि इंडेक्स वेक्टर का पहला एलिमेंट, ऑपरेंड डाइमेंशन 2 पर जाता है. इंडेक्स वेक्टर का दूसरा एलिमेंट, ऑपरेंड के डाइमेंशन 1 में जाता है. बाकी ऑपरेंड डाइमेंशन में 0 भर दिया जाता है.
फ़ुल बैचिंग इंडेक्स) हम देख सकते हैं कि इस कॉलम(फ़ुल बैचिंग इंडेक्स), अपडेट स्कैटर इंडेक्स कॉलम, और अपडेट इंडेक्स कॉलम में, बैंगनी रंग से हाइलाइट किया गया एरिया दिखाया गया है.
फ़ुल विंडो इंडेक्स) update_window_dimensions [3,4] से कैलकुलेट किया गया.
नतीजे का इंडेक्स) operand टेंसर में, फ़ुल स्टार्ट इंडेक्स, फ़ुल बैकिंग इंडेक्स, और फ़ुल विंडो इंडेक्स को जोड़ने पर मिलता है. ध्यान दें कि हरे रंग से हाइलाइट किए गए क्षेत्र, operand के आंकड़े से भी मेल खाते हैं. आखिरी लाइन को छोड़ दिया गया है, क्योंकि यह operand टेंसर के दायरे से बाहर है.
चुनें
XlaBuilder::Select भी देखें.
यह फ़ंक्शन, प्रेडिकेट अरे की वैल्यू के आधार पर, दो इनपुट अरे के एलिमेंट से एक आउटपुट अरे बनाता है.
Select(pred, on_true, on_false)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
pred |
XlaOp |
PRED टाइप का ऐरे |
on_true |
XlaOp |
टाइप T का कलेक्शन |
on_false |
XlaOp |
टाइप T का कलेक्शन |
ऐरे on_true और on_false का आकार एक जैसा होना चाहिए. यह आउटपुट ऐरे का शेप भी है. pred ऐरे का डाइमेंशन, on_true और on_false के डाइमेंशन के बराबर होना चाहिए. साथ ही, PRED एलिमेंट टाइप होना चाहिए.
pred के हर एलिमेंट P के लिए, आउटपुट ऐरे का संबंधित एलिमेंट on_true से लिया जाता है. ऐसा तब होता है, जब P की वैल्यू true होती है. इसके अलावा, अगर P की वैल्यू false होती है, तो आउटपुट ऐरे का संबंधित एलिमेंट on_false से लिया जाता है. ब्रॉडकास्टिंग के प्रतिबंधित फ़ॉर्म के तौर पर, pred, PRED टाइप का स्केलर हो सकता है. इस मामले में, अगर pred true है, तो आउटपुट ऐरे को पूरी तरह से on_true से लिया जाता है. वहीं, अगर pred false है, तो इसे on_false से लिया जाता है.
नॉन-स्केलर pred का उदाहरण:
let pred: PRED[4] = {true, false, false, true};
let v1: s32[4] = {1, 2, 3, 4};
let v2: s32[4] = {100, 200, 300, 400};
==>
Select(pred, v1, v2) = s32[4]{1, 200, 300, 4};
स्केलर pred का उदाहरण:
let pred: PRED = true;
let v1: s32[4] = {1, 2, 3, 4};
let v2: s32[4] = {100, 200, 300, 400};
==>
Select(pred, v1, v2) = s32[4]{1, 2, 3, 4};
टपल के बीच सिलेक्शन की सुविधा उपलब्ध है. इस मकसद के लिए, टपल को स्केलर टाइप माना जाता है. अगर on_true और on_false टपल हैं (जिनका शेप एक जैसा होना चाहिए!), तो pred को PRED टाइप का स्केलर होना चाहिए.
StableHLO के बारे में जानकारी के लिए, StableHLO - select पर जाएं
SelectAndScatter
XlaBuilder::SelectAndScatter भी देखें.
इस ऑपरेशन को कंपोज़िट ऑपरेशन माना जा सकता है. यह सबसे पहले operand ऐरे पर ReduceWindow की गिनती करता है, ताकि हर विंडो से कोई एलिमेंट चुना जा सके. इसके बाद, यह source ऐरे को चुने गए एलिमेंट के इंडेक्स में बिखेर देता है, ताकि ऑपरेंड ऐरे के जैसे ही शेप वाला आउटपुट ऐरे बनाया जा सके. बाइनरी select फ़ंक्शन का इस्तेमाल, हर विंडो से किसी एलिमेंट को चुनने के लिए किया जाता है. इसके लिए, इसे हर विंडो पर लागू किया जाता है. इसे इस प्रॉपर्टी के साथ कॉल किया जाता है कि पहले पैरामीटर का इंडेक्स वेक्टर, दूसरे पैरामीटर के इंडेक्स वेक्टर से लेक्सिकोग्राफ़िक रूप से कम होता है. select फ़ंक्शन, पहले पैरामीटर के चुने जाने पर true दिखाता है.वहीं, दूसरे पैरामीटर के चुने जाने पर false दिखाता है. साथ ही, फ़ंक्शन में ट्रांज़िटिविटी (यानी, अगर select(a, b) और select(b, c), true हैं, तो select(a, c) भी true है) होनी चाहिए, ताकि चुना गया एलिमेंट, किसी विंडो के लिए ट्रैवर्स किए गए एलिमेंट के क्रम पर निर्भर न हो.
scatter फ़ंक्शन, आउटपुट अरे में चुने गए हर इंडेक्स पर लागू होता है. इसमें दो स्केलर पैरामीटर होते हैं:
- आउटपुट अरे में चुने गए इंडेक्स पर मौजूद मौजूदा वैल्यू
- चुने गए इंडेक्स पर लागू होने वाली,
sourceकी स्कैटर वैल्यू
यह फ़ंक्शन, दोनों पैरामीटर को जोड़ता है और एक स्केलर वैल्यू दिखाता है. इस वैल्यू का इस्तेमाल, आउटपुट ऐरे में चुने गए इंडेक्स पर मौजूद वैल्यू को अपडेट करने के लिए किया जाता है. शुरुआत में, आउटपुट ऐरे के सभी इंडेक्स को init_value पर सेट किया जाता है.
आउटपुट ऐरे का आकार, operand ऐरे के आकार जैसा होता है. साथ ही, source ऐरे का आकार, operand ऐरे पर ReduceWindow ऑपरेशन लागू करने के बाद मिले नतीजे के आकार जैसा होना चाहिए. SelectAndScatter का इस्तेमाल, न्यूरल नेटवर्क में पूलिंग लेयर के लिए ग्रेडिएंट वैल्यू को बैकप्रॉपगेट करने के लिए किया जा सकता है.
SelectAndScatter(operand, select, window_dimensions, window_strides, padding,
source, init_value, scatter)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
T टाइप का ऐसा कलेक्शन जिस पर विंडो स्लाइड करती हैं |
select
|
XlaComputation
|
T, T
-> PRED टाइप की बाइनरी कंप्यूटेशन, ताकि इसे हर विंडो के सभी एलिमेंट पर लागू किया जा सके; अगर पहला पैरामीटर चुना जाता है, तो true दिखाता है और अगर दूसरा पैरामीटर चुना जाता है, तो false दिखाता है |
window_dimensions
|
ArraySlice<int64>
|
विंडो डाइमेंशन वैल्यू के लिए पूर्णांकों की कैटगरी |
window_strides
|
ArraySlice<int64>
|
विंडो स्ट्राइड वैल्यू के लिए पूर्णांकों का कलेक्शन |
padding
|
Padding
|
विंडो के लिए पैडिंग का टाइप (Padding::kSame या Padding::kValid) |
source
|
XlaOp
|
T टाइप की वैल्यू वाला ऐरे, जिसे स्कैटर करना है |
init_value
|
XlaOp
|
आउटपुट ऐरे की शुरुआती वैल्यू के लिए, T टाइप की स्केलर वैल्यू |
scatter
|
XlaComputation
|
T, T
-> T टाइप की बाइनरी कंप्यूटेशन, ताकि हर स्कैटर सोर्स एलिमेंट को उसके डेस्टिनेशन एलिमेंट के साथ लागू किया जा सके |
नीचे दिए गए डायग्राम में, SelectAndScatter का इस्तेमाल करने के उदाहरण दिखाए गए हैं. साथ ही, select फ़ंक्शन, अपने पैरामीटर में सबसे बड़ी वैल्यू का हिसाब लगाता है. ध्यान दें कि जब विंडो एक-दूसरे पर ओवरलैप करती हैं, जैसा कि नीचे दिए गए चित्र (2) में दिखाया गया है, तो अलग-अलग विंडो से operand ऐरे के इंडेक्स को कई बार चुना जा सकता है. इस इमेज में, वैल्यू 9 वाले एलिमेंट को सबसे ऊपर मौजूद दोनों विंडो (नीली और लाल) ने चुना है. साथ ही, बाइनरी जोड़ scatter फ़ंक्शन, वैल्यू 8 (2 + 6) वाला आउटपुट एलिमेंट जनरेट करता है.

scatter फ़ंक्शन के आकलन का क्रम तय नहीं होता. यह क्रम अलग-अलग हो सकता है. इसलिए, scatter फ़ंक्शन को फिर से जोड़ने के लिए ज़्यादा संवेदनशील नहीं होना चाहिए. ज़्यादा जानकारी के लिए, Reduce के संदर्भ में, असोसिएटिविटी के बारे में चर्चा देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - select_and_scatter देखें.
भेजें
XlaBuilder::Send भी देखें.
Send, SendWithTokens, और SendToHost, HLO में कम्यूनिकेशन प्रिमिटिव के तौर पर काम करते हैं. ये ऑप आम तौर पर, एचएलओ डंप में लो-लेवल इनपुट/आउटपुट या क्रॉस-डिवाइस ट्रांसफ़र के हिस्से के तौर पर दिखते हैं. हालांकि, इन्हें असली उपयोगकर्ताओं को मैन्युअल तरीके से बनाने के लिए नहीं बनाया गया है.
Send(operand, handle)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
भेजा जाने वाला डेटा (T टाइप का ऐरे) |
handle |
ChannelHandle |
हर भेजने/पाने वाले जोड़े के लिए यूनीक आइडेंटिफ़ायर |
यह दिए गए ऑपरेंड डेटा को, एक ही चैनल हैंडल का इस्तेमाल करने वाले दूसरे कंप्यूटेशन में मौजूद Recv निर्देश को भेजता है. इससे कोई डेटा नहीं मिलता.
Recv ऑपरेशन की तरह ही, Send ऑपरेशन का क्लाइंट एपीआई, सिंक्रोनस कम्यूनिकेशन को दिखाता है. साथ ही, इसे अंदरूनी तौर पर दो एचएलओ निर्देशों (Send और SendDone) में बांटा जाता है, ताकि एसिंक्रोनस डेटा ट्रांसफ़र किया जा सके. HloInstruction::CreateSend और HloInstruction::CreateSendDone भी देखें.
Send(HloInstruction operand, int64 channel_id)
यह निर्देश, एक ही चैनल आईडी के साथ Recv निर्देश से असाइन किए गए संसाधनों में, ऑपरेंड को एसिंक्रोनस तरीके से ट्रांसफ़र करने की प्रोसेस शुरू करता है. यह एक कॉन्टेक्स्ट दिखाता है. इसका इस्तेमाल SendDone के अगले निर्देश में किया जाता है, ताकि डेटा ट्रांसफ़र पूरा होने तक इंतज़ार किया जा सके. कॉन्टेक्स्ट, {ऑपरेंड (शेप), अनुरोध आइडेंटिफ़ायर (U32)} का टपल होता है. इसका इस्तेमाल सिर्फ़ SendDone निर्देश के लिए किया जा सकता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - send देखें.
SendDone
HloInstruction::CreateSendDone भी देखें.
SendDone(HloInstruction context)
Send निर्देश से बनाए गए कॉन्टेक्स्ट के आधार पर, डेटा ट्रांसफ़र पूरा होने का इंतज़ार करता है. इस निर्देश से कोई डेटा नहीं मिलता.
चैनल के निर्देशों को शेड्यूल करना
हर चैनल के लिए, चार निर्देशों (Recv, RecvDone, Send, SendDone) को इस क्रम में लागू किया जाता है.

Recv,Sendसे पहले होता हैSend,RecvDoneसे पहले होता हैRecv,RecvDoneसे पहले होता हैSend,SendDoneसे पहले होता है
जब बैकएंड कंपाइलर, हर उस कंप्यूटेशन के लिए लीनियर शेड्यूल जनरेट करते हैं जो चैनल के निर्देशों के ज़रिए कम्यूनिकेट करता है, तो कंप्यूटेशन के बीच कोई साइकल नहीं होनी चाहिए. उदाहरण के लिए, नीचे दिए गए शेड्यूल से डेडलॉक की स्थिति पैदा होती है.

SetDimensionSize
XlaBuilder::SetDimensionSize भी देखें.
इससे XlaOp के दिए गए डाइमेंशन का डाइनैमिक साइज़ सेट किया जाता है. ऑपरेंड का आकार, array शेप में होना चाहिए.
SetDimensionSize(operand, val, dimension)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
n डाइमेंशन वाला इनपुट ऐरे. |
val |
XlaOp |
यह int32 है, जो रनटाइम के दौरान डाइनैमिक साइज़ को दिखाता है. |
dimension
|
int64
|
इंटरवल [0, n) में मौजूद वैल्यू, डाइमेंशन तय करती है. |
ऑपरेंड को नतीजे के तौर पर पास करता है. साथ ही, कंपाइलर की मदद से ट्रैक किए गए डाइनैमिक डाइमेंशन को भी पास करता है.
पैडिंग की गई वैल्यू को डाउनस्ट्रीम रिडक्शन ऑपरेशंस अनदेखा कर देंगे.
let v: f32[10] = f32[10]{1, 2, 3, 4, 5, 6, 7, 8, 9, 10};
let five: s32 = 5;
let six: s32 = 6;
// Setting dynamic dimension size doesn't change the upper bound of the static
// shape.
let padded_v_five: f32[10] = set_dimension_size(v, five, /*dimension=*/0);
let padded_v_six: f32[10] = set_dimension_size(v, six, /*dimension=*/0);
// sum == 1 + 2 + 3 + 4 + 5
let sum:f32[] = reduce_sum(padded_v_five);
// product == 1 * 2 * 3 * 4 * 5
let product:f32[] = reduce_product(padded_v_five);
// Changing padding size will yield different result.
// sum == 1 + 2 + 3 + 4 + 5 + 6
let sum:f32[] = reduce_sum(padded_v_six);
ShiftLeft
XlaBuilder::ShiftLeft भी देखें.
यह फ़ंक्शन, lhs पर एलिमेंट के हिसाब से लेफ्ट-शिफ़्ट ऑपरेशन करता है. इसके लिए, rhs बिट का इस्तेमाल किया जाता है.
ShiftLeft(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
ShiftLeft के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट उपलब्ध है:
ShiftLeft(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - shift_left देखें.
ShiftRightArithmetic
XlaBuilder::ShiftRightArithmetic भी देखें.
यह फ़ंक्शन, rhs में मौजूद हर एलिमेंट को lhs में दिए गए बिट की संख्या के हिसाब से दाईं ओर शिफ़्ट करता है.
ShiftRightArithmetic(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
ShiftRightArithmetic के लिए, अलग-अलग डाइमेंशन के साथ ब्रॉडकास्टिंग की सुविधा देने वाला एक वैकल्पिक वैरिएंट मौजूद है:
ShiftRightArithmetic(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - shift_right_arithmetic देखें.
ShiftRightLogical
XlaBuilder::ShiftRightLogical भी देखें.
यह फ़ंक्शन, lhs पर एलिमेंट के हिसाब से लॉजिकल राइट-शिफ़्ट ऑपरेशन करता है. इसके लिए, rhs बिट का इस्तेमाल किया जाता है.
ShiftRightLogical(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
ShiftRightLogical के लिए, अलग-अलग डाइमेंशन में ब्रॉडकास्ट करने की सुविधा के साथ एक वैकल्पिक वैरिएंट मौजूद है:
ShiftRightLogical(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - shift_right_logical देखें.
हस्ताक्षर करें
XlaBuilder::Sign भी देखें.
Sign(operand) एलिमेंट के हिसाब से साइन ऑपरेशन x -> sgn(x), जहां
\[\text{sgn}(x) = \begin{cases} -1 & x < 0\\ -0 & x = -0\\ NaN & x = NaN\\ +0 & x = +0\\ 1 & x > 0 \end{cases}\]
operand के एलिमेंट टाइप के तुलना ऑपरेटर का इस्तेमाल करके.
Sign(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
StableHLO के बारे में जानकारी के लिए, StableHLO - sign देखें.
सिन
Sin(operand) एलिमेंट-वाइज़ साइन x -> sin(x).
XlaBuilder::Sin भी देखें.
Sin(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Sin फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Sin(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - sine देखें.
स्लाइस
XlaBuilder::Slice भी देखें.
स्लाइसिंग, इनपुट ऐरे से सब-ऐरे निकालती है. सब-ऐरे में, इनपुट के बराबर डाइमेंशन होते हैं. साथ ही, इसमें इनपुट ऐरे के अंदर बाउंडिंग बॉक्स में मौजूद वैल्यू होती हैं. बाउंडिंग बॉक्स के डाइमेंशन और इंडेक्स, स्लाइस ऑपरेशन के लिए आर्ग्युमेंट के तौर पर दिए जाते हैं.
Slice(operand, start_indices, limit_indices, strides)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
T टाइप का N डाइमेंशन वाला कलेक्शन |
start_indices
|
ArraySlice<int64>
|
पूर्णांकों की ऐसी सूची जिसमें हर डाइमेंशन के लिए स्लाइस के शुरुआती इंडेक्स शामिल हों. वैल्यू, शून्य से ज़्यादा या उसके बराबर होनी चाहिए. |
limit_indices
|
ArraySlice<int64>
|
इसमें N पूर्णांकों की सूची होती है. इसमें हर डाइमेंशन के स्लाइस के लिए, आखिरी इंडेक्स (शामिल नहीं) होते हैं. हर वैल्यू, डाइमेंशन के लिए start_indices की वैल्यू से ज़्यादा या उसके बराबर होनी चाहिए. साथ ही, डाइमेंशन के साइज़ से कम या उसके बराबर होनी चाहिए. |
strides
|
ArraySlice<int64>
|
पूर्णांकों की ऐसी सूची जिसमें N पूर्णांक होते हैं. इससे स्लाइस का इनपुट स्ट्राइड तय होता है. स्लाइस, डाइमेंशन d में मौजूद हर strides[d] एलिमेंट को चुनता है. |
एक डाइमेंशन वाला उदाहरण:
let a = {0.0, 1.0, 2.0, 3.0, 4.0}
Slice(a, {2}, {4})
// Result: {2.0, 3.0}
दो डाइमेंशन वाला उदाहरण:
let b =
{ {0.0, 1.0, 2.0},
{3.0, 4.0, 5.0},
{6.0, 7.0, 8.0},
{9.0, 10.0, 11.0} }
Slice(b, {2, 1}, {4, 3})
// Result:
// { { 7.0, 8.0},
// {10.0, 11.0} }
StableHLO के बारे में जानकारी के लिए, StableHLO - स्लाइस देखें.
क्रम से लगाएं
XlaBuilder::Sort भी देखें.
Sort(operands, comparator, dimension, is_stable)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operands |
ArraySlice<XlaOp> |
सॉर्ट किए जाने वाले ऑपरेंड. |
comparator |
XlaComputation |
तुलना करने वाले फ़ंक्शन का इस्तेमाल किया जाना चाहिए. |
dimension |
int64 |
वह डाइमेंशन जिसके हिसाब से क्रम से लगाना है. |
is_stable |
bool |
क्या स्टेबल सॉर्टिंग का इस्तेमाल किया जाना चाहिए. |
अगर सिर्फ़ एक ऑपरेंड दिया गया है, तो:
अगर ऑपरेंड एक डाइमेंशन वाला टेंसर (ऐरे) है, तो नतीजा क्रम से लगाया गया ऐरे होता है. अगर आपको ऐरे को बढ़ते क्रम में लगाना है, तो तुलना करने वाले फ़ंक्शन को 'इससे कम है' तुलना करनी चाहिए. आसान शब्दों में कहें, तो ऐरे को क्रम से लगाने के बाद, यह सभी इंडेक्स पोज़िशन
i, jके लिए मान्य होता है. इसमेंi < j,comparator(value[i], value[j]) = comparator(value[j], value[i]) = falseयाcomparator(value[i], value[j]) = trueमें से कोई भी हो सकता है.अगर ऑपरेंड में डाइमेंशन की संख्या ज़्यादा है, तो ऑपरेंड को दिए गए डाइमेंशन के हिसाब से क्रम में लगाया जाता है. उदाहरण के लिए, दो डाइमेंशन वाले टेंसर (मैट्रिक्स) के लिए, डाइमेंशन वैल्यू
0हर कॉलम को अलग-अलग तरीके से क्रम में लगाएगी. वहीं, डाइमेंशन वैल्यू1हर लाइन को अलग-अलग तरीके से क्रम में लगाएगी. अगर डाइमेंशन का कोई नंबर नहीं दिया जाता है, तो डिफ़ॉल्ट रूप से आखिरी डाइमेंशन चुना जाता है. जिस डाइमेंशन को क्रम से लगाया गया है उसके लिए, क्रम से लगाने का वही तरीका लागू होता है जो एक डाइमेंशन के मामले में लागू होता है.
अगर n > 1 ऑपरेंड दिए गए हैं, तो:
सभी
nऑपरेंड, एक ही डाइमेंशन वाले टेंसर होने चाहिए. टेंसर के एलिमेंट टाइप अलग-अलग हो सकते हैं.सभी ऑपरेंड को अलग-अलग नहीं, बल्कि एक साथ क्रम से लगाया जाता है. कॉन्सेप्ट के हिसाब से, ऑपरेंड को टपल के तौर पर माना जाता है. जब यह जांच की जाती है कि इंडेक्स पोज़िशन
iऔरjपर मौजूद हर ऑपरेंड के एलिमेंट को स्वैप करने की ज़रूरत है या नहीं, तब तुलना करने वाले फ़ंक्शन को2 * nस्केलर पैरामीटर के साथ कॉल किया जाता है. इसमें पैरामीटर2 * k,k-thऑपरेंड की पोज़िशनiपर मौजूद वैल्यू से मेल खाता है. वहीं, पैरामीटर2 * k + 1,k-thऑपरेंड की पोज़िशनjपर मौजूद वैल्यू से मेल खाता है. आम तौर पर, तुलना करने वाला टूल, पैरामीटर2 * kऔर2 * k + 1की तुलना एक-दूसरे से करता है. साथ ही, टाई ब्रेकर के तौर पर अन्य पैरामीटर पेयर का इस्तेमाल कर सकता है.नतीजा एक टपल होता है, जिसमें ऑपरेंड को क्रम से लगाया जाता है. इन्हें ऊपर दिए गए तरीके के मुताबिक, दिए गए डाइमेंशन के हिसाब से क्रम में लगाया जाता है. टपल का
i-thऑपरेंड, Sort केi-thऑपरेंड के बराबर होता है.
उदाहरण के लिए, अगर तीन ऑपरेंड operand0 = [3, 1], operand1 = [42, 50], operand2 = [-3.0, 1.1] हैं और तुलना करने वाला ऑपरेटर, सिर्फ़ operand0 की वैल्यू की तुलना 'इससे कम' से करता है, तो सॉर्ट करने पर आउटपुट के तौर पर टपल ([1, 3], [50, 42], [1.1, -3.0]) मिलेगा.
अगर is_stable को true पर सेट किया जाता है, तो यह पक्का होता है कि क्रम स्थिर है. इसका मतलब है कि अगर तुलना करने वाले फ़ंक्शन के हिसाब से कुछ एलिमेंट बराबर हैं, तो बराबर वैल्यू का क्रम नहीं बदलेगा. दो एलिमेंट e1 और e2 सिर्फ़ तब बराबर होते हैं, जब comparator(e1, e2) = comparator(e2, e1) = false. डिफ़ॉल्ट रूप से, is_stable को गलत पर सेट किया जाता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - sort देखें.
Sqrt
XlaBuilder::Sqrt भी देखें.
हर एलिमेंट का वर्गमूल निकालने की कार्रवाई x -> sqrt(x).
Sqrt(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Sqrt फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Sqrt(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - sqrt देखें.
सब प्रॉपर्टी
XlaBuilder::Sub भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट को घटाता है.
Sub(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Sub के लिए, ब्रॉडकास्टिंग के अलग-अलग डाइमेंशन के साथ काम करने वाला एक वैकल्पिक वैरिएंट उपलब्ध है:
Sub(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस होता है. यह बताता है कि ऑपरेंड को ब्रॉडकास्ट करने के लिए किन डाइमेंशन का इस्तेमाल करना है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - subtract देखें.
टैन
XlaBuilder::Tan भी देखें.
हर एलिमेंट के लिए स्पर्शरेखा x -> tan(x).
Tan(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Tan, result_accuracy आर्ग्युमेंट का इस्तेमाल करने का विकल्प भी देता है:
Tan(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - tan देखें.
Tanh
XlaBuilder::Tanh भी देखें.
हर एलिमेंट के लिए हाइपरबोलिक टैंजेंट x -> tanh(x).
Tanh(operand)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
Tanh फ़ंक्शन में, result_accuracy आर्ग्युमेंट का इस्तेमाल भी किया जा सकता है. हालांकि, यह ज़रूरी नहीं है:
Tanh(operand, result_accuracy)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
फ़ंक्शन का ऑपरेंड |
result_accuracy
|
ज़रूरी नहीं ResultAccuracy
|
उपयोगकर्ता, एक से ज़्यादा तरीकों से लागू किए गए यूनरी ऑपरेशंस के लिए, किस तरह की सटीक जानकारी का अनुरोध कर सकता है |
result_accuracy के बारे में ज़्यादा जानकारी के लिए, नतीजों की सटीकता देखें.
StableHLO के बारे में जानकारी के लिए, StableHLO - tanh देखें.
TopK
XlaBuilder::TopK भी देखें.
TopK, दिए गए टेंसर के आखिरी डाइमेंशन के लिए, k सबसे बड़े या सबसे छोटे एलिमेंट की वैल्यू और इंडेक्स ढूंढता है.
TopK(operand, k, largest)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand
|
XlaOp
|
वह टेंसर जिससे सबसे बड़े k एलिमेंट निकालने हैं.
टेंसर में एक या उससे ज़्यादा डाइमेंशन होने चाहिए. टेंसर के आखिरी डाइमेंशन का साइज़ k से ज़्यादा या उसके बराबर होना चाहिए. |
k |
int64 |
एक्सट्रैक्ट किए जाने वाले एलिमेंट की संख्या. |
largest
|
bool
|
सबसे बड़े या सबसे छोटे k एलिमेंट निकालने हैं या नहीं. |
एक डाइमेंशन वाले इनपुट टेंसर (ऐरे) के लिए, यह फ़ंक्शन ऐरे में मौजूद k सबसे बड़ी या सबसे छोटी
एंट्री ढूंढता है. साथ ही, दो ऐरे (values, indices) का टपल आउटपुट करता है. इसलिए, values[j], operand में j-वीं सबसे बड़ी/छोटी एंट्री है. इसका इंडेक्स indices[j] है.
एक से ज़्यादा डाइमेंशन वाले इनपुट टेंसर के लिए, यह फ़ंक्शन आखिरी डाइमेंशन के साथ-साथ टॉप k एंट्री का हिसाब लगाता है. साथ ही, आउटपुट में अन्य सभी डाइमेंशन (लाइनें) को बनाए रखता है.
इसलिए, Q >= k शेप वाले ऑपरेंड के लिए, आउटपुट एक टपल (values, indices) होता है. इसमें:[A, B, ..., P, Q]
values.shape = indices.shape = [A, B, ..., P, k]
अगर किसी लाइन में मौजूद दो एलिमेंट बराबर हैं, तो कम इंडेक्स वाला एलिमेंट पहले दिखता है.
ट्रांसपोज़
tf.reshape ऑपरेशन भी देखें.
Transpose(operand, permutation)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
operand |
XlaOp |
वह ऑपरेंड जिसे ट्रांसपोज़ करना है. |
permutation |
ArraySlice<int64> |
डाइमेंशन को क्रम बदलने का तरीका. |
यह फ़ंक्शन, दिए गए क्रमपरिवर्तन के हिसाब से ऑपरेंड डाइमेंशन को बदलता है. इसलिए, ∀ i . 0 ≤ i < number of dimensions ⇒
input_dimensions[permutation[i]] = output_dimensions[i].
यह Reshape(operand, permutation, Permute(permutation, operand.shape.dimensions)) के बराबर है.
StableHLO के बारे में जानकारी के लिए, StableHLO - transpose देखें.
TriangularSolve
XlaBuilder::TriangularSolve भी देखें.
यह फ़ंक्शन, फ़ॉरवर्ड या बैक-सब्स्टिट्यूशन की मदद से, कम या ज़्यादा त्रिकोणीय कोएफ़िशिएंट मैट्रिक्स वाले रैखिक समीकरणों को हल करता है. यह रूटीन, मुख्य डाइमेंशन के साथ ब्रॉडकास्ट करता है. यह a और b दिए जाने पर, वैरिएबल x के लिए मैट्रिक्स सिस्टम op(a) * x =
b या x * op(a) = b में से किसी एक को हल करता है. यहां op(a), op(a) = a, op(a) = Transpose(a) या op(a) = Conj(Transpose(a)) में से कोई एक है.
TriangularSolve(a, b, left_side, lower, unit_diagonal, transpose_a)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
a
|
XlaOp
|
a > [..., M,
M] शेप वाला कॉम्प्लेक्स या फ़्लोटिंग-पॉइंट टाइप का दो डाइमेंशन वाला ऐरे. |
b
|
XlaOp
|
a > एक ही तरह का दो डाइमेंशन वाला ऐरे, जिसका आकार [..., M, K] होता है. ऐसा तब होता है, जब left_side सही हो. अगर left_side गलत हो, तो आकार [..., K, M] होता है. |
left_side
|
bool
|
इससे पता चलता है कि op(a) * x = b (true) या x *
op(a) = b (false) के फ़ॉर्म वाले सिस्टम को हल करना है या नहीं. |
lower
|
bool
|
a के ऊपरी या निचले त्रिकोण का इस्तेमाल करना है या नहीं. |
unit_diagonal
|
bool
|
अगर true है, तो a के डायगोनल एलिमेंट को 1 माना जाता है और उन्हें ऐक्सेस नहीं किया जाता. |
transpose_a
|
Transpose
|
a का इस्तेमाल वैसे ही करना है, इसे ट्रांसपोज़ करना है या इसके कॉन्जुगेट ट्रांसपोज़ का इस्तेमाल करना है. |
इनपुट डेटा को a के सिर्फ़ निचले/ऊपरी त्रिकोण से पढ़ा जाता है. यह lower की वैल्यू पर निर्भर करता है. दूसरे ट्रायंगल की वैल्यू को अनदेखा कर दिया जाता है. आउटपुट डेटा को उसी ट्राएंगल में दिखाया जाता है. दूसरे ट्राएंगल में मौजूद वैल्यू, लागू करने के तरीके के हिसाब से तय होती हैं और कुछ भी हो सकती हैं.
अगर a और b के डाइमेंशन की संख्या 2 से ज़्यादा है, तो उन्हें मैट्रिक्स के बैच के तौर पर माना जाता है. इनमें से दो माइनर डाइमेंशन को छोड़कर, बाकी सभी डाइमेंशन बैच डाइमेंशन होते हैं. a और b के बैच डाइमेंशन एक जैसे होने चाहिए.
StableHLO के बारे में जानकारी के लिए, StableHLO - triangular_solve देखें.
टपल
XlaBuilder::Tuple भी देखें.
यह एक टपल है, जिसमें अलग-अलग संख्या में डेटा हैंडल होते हैं. इनमें से हर एक का अपना शेप होता है.
Tuple(elements)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
elements |
XlaOp का वेक्टर |
T टाइप का N अरे |
यह C++ में std::tuple के जैसा है. सैद्धांतिक तौर पर:
let v: f32[10] = f32[10]{0, 1, 2, 3, 4, 5, 6, 7, 8, 9};
let s: s32 = 5;
let t: (f32[10], s32) = tuple(v, s);
GetTupleElement ऑपरेशन के ज़रिए, टपल को डीकंस्ट्रक्ट (ऐक्सेस) किया जा सकता है.
StableHLO के बारे में जानकारी के लिए, StableHLO - टपल देखें.
हालांकि
XlaBuilder::While भी देखें.
While(condition, body, init)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
condition
|
XlaComputation
|
T -> PRED टाइप का XlaComputation, जो लूप के खत्म होने की शर्त तय करता है. |
body
|
XlaComputation
|
XlaComputation, T -> T टाइप का होता है. यह लूप के मुख्य हिस्से को तय करता है. |
init
|
T
|
condition और body पैरामीटर की शुरुआती वैल्यू. |
यह body को तब तक क्रम से लागू करता है, जब तक condition काम करना बंद नहीं कर देता. यह कई अन्य भाषाओं में मौजूद सामान्य while लूप की तरह ही होता है. हालांकि, इसमें यहां दिए गए अंतर और पाबंदियां लागू होती हैं.
Whileनोड,Tटाइप की वैल्यू दिखाता है. यहbodyके आखिरी एक्ज़ीक्यूशन का नतीजा होता है.- टाइप
Tका आकार स्टैटिक तौर पर तय किया जाता है. यह सभी इटरेशन में एक जैसा होना चाहिए.
कैलकुलेशन के टी पैरामीटर, पहले इटरेशन में init वैल्यू से शुरू होते हैं. इसके बाद, हर इटरेशन में init से मिले नए नतीजे के हिसाब से अपने-आप अपडेट हो जाते हैं.body
While नोड का मुख्य इस्तेमाल, न्यूरल नेटवर्क में ट्रेनिंग को बार-बार लागू करना है. नीचे दिए गए ग्राफ़ में, आसान शब्दों में लिखा गया स्यूडोकोड दिखाया गया है. यह कोड, कंप्यूटेशन को दिखाता है. यह कोड, while_test.cc में देखा जा सकता है.
इस उदाहरण में T टाइप, एक Tuple है. इसमें, इटरेशन की संख्या के लिए int32 और एक्युमुलेटर के लिए vector[10] शामिल है. एक हज़ार बार दोहराए जाने वाले इस लूप में, ऐक्युमुलेटर में एक जैसा वेक्टर जोड़ा जाता है.
// Pseudocode for the computation.
init = {0, zero_vector[10]} // Tuple of int32 and float[10].
result = init;
while (result(0) < 1000) {
iteration = result(0) + 1;
new_vector = result(1) + constant_vector[10];
result = {iteration, new_vector};
}

StableHLO के बारे में जानकारी के लिए, StableHLO - while देखें.
Xor
XlaBuilder::Xor भी देखें.
यह फ़ंक्शन, lhs और rhs के हर एलिमेंट का XOR करता है.
Xor(lhs, rhs)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप की सरणी |
आर्गुमेंट के शेप एक जैसे या एक-दूसरे के साथ काम करने वाले होने चाहिए. ब्रॉडकास्टिंग से जुड़े दस्तावेज़ में, यह बताया गया है कि शेप के साथ काम करने का क्या मतलब है. किसी ऑपरेशन के नतीजे का आकार, दो इनपुट ऐरे को ब्रॉडकास्ट करने के बाद मिलने वाले आकार के बराबर होता है. इस वैरिएंट में, अलग-अलग रैंक वाले ऐरे के बीच ऑपरेशन नहीं किए जा सकते. हालांकि, अगर ऑपरेंड में से कोई एक स्केलर है, तो ऐसा किया जा सकता है.
Xor के लिए, ब्रॉडकास्टिंग की सुविधा के साथ काम करने वाला एक वैकल्पिक वैरिएंट उपलब्ध है:
Xor(lhs,rhs, broadcast_dimensions)
| तर्क | टाइप | सिमैंटिक |
|---|---|---|
| lhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| rhs | XlaOp | लेफ़्ट-हैंड-साइड ऑपरेंड: T टाइप का कलेक्शन |
| broadcast_dimension | ArraySlice |
टारगेट शेप के किस डाइमेंशन से, ऑपरेंड शेप का हर डाइमेंशन मेल खाता है |
इस वैरिएंट का इस्तेमाल, अलग-अलग रैंक की ऐरे के बीच अंकगणितीय कार्रवाइयों के लिए किया जाना चाहिए. जैसे, किसी मैट्रिक्स में वेक्टर जोड़ना.
broadcast_dimensions ऑपरेंड, पूर्णांकों का एक स्लाइस है. यह ऑपरेंड को ब्रॉडकास्ट करने के लिए इस्तेमाल किए जाने वाले डाइमेंशन के बारे में बताता है. सिमैंटिक के बारे में ज़्यादा जानकारी, ब्रॉडकास्टिंग पेज पर दी गई है.
StableHLO के बारे में जानकारी के लिए, StableHLO - xor देखें.