評價此頁

命名張量運算元覆蓋率#

建立日期: 2019年10月08日 | 最後更新日期: 2025年06月08日

請先閱讀 命名張量 以瞭解命名張量的介紹。

本文件是關於名稱推斷的參考,這是一個定義命名張量如何

  1. 使用名稱提供額外的執行時自動正確性檢查

  2. 將名稱從輸入張量傳播到輸出張量

以下是支援命名張量的所有操作及其相關的名稱推斷規則的列表。

如果您在此處未找到所需的操作,但它有助於您的用例,請 搜尋是否已提交相關問題,如果沒有,請 提交一個問題

警告

命名張量 API 仍處於實驗階段,可能會發生更改。

支援的操作#

API

名稱推斷規則

Tensor.abs(), torch.abs()

保留輸入名稱

Tensor.abs_()

保留輸入名稱

Tensor.acos(), torch.acos()

保留輸入名稱

Tensor.acos_()

保留輸入名稱

Tensor.add(), torch.add()

統一輸入名稱

Tensor.add_()

統一輸入名稱

Tensor.addmm(), torch.addmm()

收縮維度

Tensor.addmm_()

收縮維度

Tensor.addmv(), torch.addmv()

收縮維度

Tensor.addmv_()

收縮維度

Tensor.align_as()

參見文件

Tensor.align_to()

參見文件

Tensor.all(), torch.all()

Tensor.any(), torch.any()

Tensor.asin(), torch.asin()

保留輸入名稱

Tensor.asin_()

保留輸入名稱

Tensor.atan(), torch.atan()

保留輸入名稱

Tensor.atan2(), torch.atan2()

統一輸入名稱

Tensor.atan2_()

統一輸入名稱

Tensor.atan_()

保留輸入名稱

Tensor.bernoulli(), torch.bernoulli()

保留輸入名稱

Tensor.bernoulli_()

Tensor.bfloat16()

保留輸入名稱

Tensor.bitwise_not(), torch.bitwise_not()

保留輸入名稱

Tensor.bitwise_not_()

Tensor.bmm(), torch.bmm()

收縮維度

Tensor.bool()

保留輸入名稱

Tensor.byte()

保留輸入名稱

torch.cat()

統一輸入名稱

Tensor.cauchy_()

Tensor.ceil(), torch.ceil()

保留輸入名稱

Tensor.ceil_()

Tensor.char()

保留輸入名稱

Tensor.chunk(), torch.chunk()

保留輸入名稱

Tensor.clamp(), torch.clamp()

保留輸入名稱

Tensor.clamp_()

Tensor.copy_()

out函式和原地變體

Tensor.cos(), torch.cos()

保留輸入名稱

Tensor.cos_()

Tensor.cosh(), torch.cosh()

保留輸入名稱

Tensor.cosh_()

Tensor.acosh(), torch.acosh()

保留輸入名稱

Tensor.acosh_()

Tensor.cpu()

保留輸入名稱

Tensor.cuda()

保留輸入名稱

Tensor.cumprod(), torch.cumprod()

保留輸入名稱

Tensor.cumsum(), torch.cumsum()

保留輸入名稱

Tensor.data_ptr()

Tensor.deg2rad(), torch.deg2rad()

保留輸入名稱

Tensor.deg2rad_()

Tensor.detach(), torch.detach()

保留輸入名稱

Tensor.detach_()

Tensor.device, torch.device()

Tensor.digamma(), torch.digamma()

保留輸入名稱

Tensor.digamma_()

Tensor.dim()

Tensor.div(), torch.div()

統一輸入名稱

Tensor.div_()

統一輸入名稱

Tensor.dot(), torch.dot()

Tensor.double()

保留輸入名稱

Tensor.element_size()

torch.empty()

工廠函式

torch.empty_like()

工廠函式

Tensor.eq(), torch.eq()

統一輸入名稱

Tensor.erf(), torch.erf()

保留輸入名稱

Tensor.erf_()

Tensor.erfc(), torch.erfc()

保留輸入名稱

Tensor.erfc_()

Tensor.erfinv(), torch.erfinv()

保留輸入名稱

Tensor.erfinv_()

Tensor.exp(), torch.exp()

保留輸入名稱

Tensor.exp_()

Tensor.expand()

保留輸入名稱

Tensor.expm1(), torch.expm1()

保留輸入名稱

Tensor.expm1_()

Tensor.exponential_()

Tensor.fill_()

Tensor.flatten(), torch.flatten()

參見文件

Tensor.float()

保留輸入名稱

Tensor.floor(), torch.floor()

保留輸入名稱

Tensor.floor_()

Tensor.frac(), torch.frac()

保留輸入名稱

Tensor.frac_()

Tensor.ge(), torch.ge()

統一輸入名稱

Tensor.get_device(), torch.get_device()

Tensor.grad

Tensor.gt(), torch.gt()

統一輸入名稱

Tensor.half()

保留輸入名稱

Tensor.has_names()

參見文件

Tensor.index_fill(), torch.index_fill()

保留輸入名稱

Tensor.index_fill_()

Tensor.int()

保留輸入名稱

Tensor.is_contiguous()

Tensor.is_cuda

Tensor.is_floating_point(), torch.is_floating_point()

Tensor.is_leaf

Tensor.is_pinned()

Tensor.is_shared()

Tensor.is_signed(), torch.is_signed()

Tensor.is_sparse

如果張量使用稀疏 CSR 儲存佈局,則為 True,否則為 False

torch.is_tensor()

Tensor.item()

Tensor.itemsize

Tensor.kthvalue(), torch.kthvalue()

移除維度

Tensor.le(), torch.le()

統一輸入名稱

Tensor.log(), torch.log()

保留輸入名稱

Tensor.log10(), torch.log10()

保留輸入名稱

Tensor.log10_()

Tensor.log1p(), torch.log1p()

保留輸入名稱

Tensor.log1p_()

Tensor.log2(), torch.log2()

保留輸入名稱

Tensor.log2_()

Tensor.log_()

Tensor.log_normal_()

Tensor.logical_not(), torch.logical_not()

保留輸入名稱

Tensor.logical_not_()

Tensor.logsumexp(), torch.logsumexp()

移除維度

Tensor.long()

保留輸入名稱

Tensor.lt(), torch.lt()

統一輸入名稱

torch.manual_seed()

Tensor.masked_fill(), torch.masked_fill()

保留輸入名稱

Tensor.masked_fill_()

Tensor.masked_select(), torch.masked_select()

對掩碼進行對齊以匹配輸入,然後統一輸入張量的名稱

Tensor.matmul(), torch.matmul()

收縮維度

Tensor.mean(), torch.mean()

移除維度

Tensor.median(), torch.median()

移除維度

Tensor.nanmedian(), torch.nanmedian()

移除維度

Tensor.mm(), torch.mm()

收縮維度

Tensor.mode(), torch.mode()

移除維度

Tensor.mul(), torch.mul()

統一輸入名稱

Tensor.mul_()

統一輸入名稱

Tensor.mv(), torch.mv()

收縮維度

Tensor.names

參見文件

Tensor.narrow(), torch.narrow()

保留輸入名稱

Tensor.nbytes

Tensor.ndim

Tensor.ndimension()

Tensor.ne(), torch.ne()

統一輸入名稱

Tensor.neg(), torch.neg()

保留輸入名稱

Tensor.neg_()

torch.normal()

保留輸入名稱

Tensor.normal_()

Tensor.numel(), torch.numel()

torch.ones()

工廠函式

Tensor.pow(), torch.pow()

統一輸入名稱

Tensor.pow_()

Tensor.prod(), torch.prod()

移除維度

Tensor.rad2deg(), torch.rad2deg()

保留輸入名稱

Tensor.rad2deg_()

torch.rand()

工廠函式

torch.rand()

工廠函式

torch.randn()

工廠函式

torch.randn()

工廠函式

Tensor.random_()

Tensor.reciprocal(), torch.reciprocal()

保留輸入名稱

Tensor.reciprocal_()

Tensor.refine_names()

參見文件

Tensor.register_hook()

Tensor.register_post_accumulate_grad_hook()

Tensor.rename()

參見文件

Tensor.rename_()

參見文件

Tensor.requires_grad

Tensor.requires_grad_()

Tensor.resize_()

僅允許不改變形狀的重塑

Tensor.resize_as_()

僅允許不改變形狀的重塑

Tensor.round(), torch.round()

保留輸入名稱

Tensor.round_()

Tensor.rsqrt(), torch.rsqrt()

保留輸入名稱

Tensor.rsqrt_()

Tensor.select(), torch.select()

移除維度

Tensor.short()

保留輸入名稱

Tensor.sigmoid(), torch.sigmoid()

保留輸入名稱

Tensor.sigmoid_()

Tensor.sign(), torch.sign()

保留輸入名稱

Tensor.sign_()

Tensor.sgn(), torch.sgn()

保留輸入名稱

Tensor.sgn_()

Tensor.sin(), torch.sin()

保留輸入名稱

Tensor.sin_()

Tensor.sinh(), torch.sinh()

保留輸入名稱

Tensor.sinh_()

Tensor.asinh(), torch.asinh()

保留輸入名稱

Tensor.asinh_()

Tensor.size()

Tensor.softmax(), torch.softmax()

保留輸入名稱

Tensor.split(), torch.split()

保留輸入名稱

Tensor.sqrt(), torch.sqrt()

保留輸入名稱

Tensor.sqrt_()

Tensor.squeeze(), torch.squeeze()

移除維度

Tensor.std(), torch.std()

移除維度

torch.std_mean()

移除維度

Tensor.stride()

Tensor.sub(), torch.sub()

統一輸入名稱

Tensor.sub_()

統一輸入名稱

Tensor.sum(), torch.sum()

移除維度

Tensor.tan(), torch.tan()

保留輸入名稱

Tensor.tan_()

Tensor.tanh(), torch.tanh()

保留輸入名稱

Tensor.tanh_()

Tensor.atanh(), torch.atanh()

保留輸入名稱

Tensor.atanh_()

torch.tensor()

工廠函式

Tensor.to()

保留輸入名稱

Tensor.topk(), torch.topk()

移除維度

Tensor.transpose(), torch.transpose()

置換維度

Tensor.trunc(), torch.trunc()

保留輸入名稱

Tensor.trunc_()

Tensor.type()

Tensor.type_as()

保留輸入名稱

Tensor.unbind(), torch.unbind()

移除維度

Tensor.unflatten()

參見文件

Tensor.uniform_()

Tensor.var(), torch.var()

移除維度

torch.var_mean()

移除維度

Tensor.zero_()

torch.zeros()

工廠函式

保留輸入名稱#

所有逐點一元函式以及其他一些一元函式也遵循此規則。

  • 檢查名稱:無

  • 傳播名稱:輸入張量的名稱會傳播到輸出。

>>> x = torch.randn(3, 3, names=('N', 'C'))
>>> x.abs().names
('N', 'C')

移除維度#

所有歸約操作(如 sum())透過在所需維度上進行歸約來移除維度。其他操作如 select()squeeze() 也會移除維度。

在操作中可以傳遞整數維度索引的地方,也可以傳遞維度名稱。接受維度索引列表的函式也可以接受維度名稱列表。

  • 檢查名稱:如果將 dimdims 作為名稱列表傳入,請檢查這些名稱是否存在於 self 中。

  • 傳播名稱:如果輸入張量中由 dimdims 指定的維度不存在於輸出張量中,則這些維度的相應名稱不會出現在 output.names 中。

>>> x = torch.randn(1, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.squeeze('N').names
('C', 'H', 'W')

>>> x = torch.randn(3, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.sum(['N', 'C']).names
('H', 'W')

# Reduction ops with keepdim=True don't actually remove dimensions.
>>> x = torch.randn(3, 3, 3, 3, names=('N', 'C', 'H', 'W'))
>>> x.sum(['N', 'C'], keepdim=True).names
('N', 'C', 'H', 'W')

統一輸入名稱#

所有二元算術運算都遵循此規則。進行廣播的操作仍然從右側按位置進行廣播,以保持與未命名張量的相容性。要按名稱進行顯式廣播,請使用 Tensor.align_as()

  • 檢查名稱:所有名稱必須從右側按位置匹配。即,在 tensor + other 中,對於 i(-min(tensor.dim(), other.dim()) + 1, -1] 範圍內的所有 i,都必須滿足 match(tensor.names[i], other.names[i]) 為真。

  • 檢查名稱:此外,所有命名維度必須從右側對齊。在匹配過程中,如果我們匹配到一個命名維度 A 和一個未命名維度 None,那麼 A 不能出現在具有該未命名維度的張量中。

  • 傳播名稱:從兩個張量中從右側統一名稱對,以生成輸出名稱。

例如,

# tensor: Tensor[   N, None]
# other:  Tensor[None,    C]
>>> tensor = torch.randn(3, 3, names=('N', None))
>>> other = torch.randn(3, 3, names=(None, 'C'))
>>> (tensor + other).names
('N', 'C')

檢查名稱

  • match(tensor.names[-1], other.names[-1])True

  • match(tensor.names[-2], tensor.names[-2])True

  • 由於我們在 tensor 中匹配了 None'C',請檢查以確保 'C' 不存在於 tensor 中(它不存在)。

  • 檢查以確保 'N' 不存在於 other 中(它不存在)。

最後,輸出名稱透過 [unify('N', None), unify(None, 'C')] = ['N', 'C'] 計算得出

更多示例

# Dimensions don't match from the right:
# tensor: Tensor[N, C]
# other:  Tensor[   N]
>>> tensor = torch.randn(3, 3, names=('N', 'C'))
>>> other = torch.randn(3, names=('N',))
>>> (tensor + other).names
RuntimeError: Error when attempting to broadcast dims ['N', 'C'] and dims
['N']: dim 'C' and dim 'N' are at the same position from the right but do
not match.

# Dimensions aren't aligned when matching tensor.names[-1] and other.names[-1]:
# tensor: Tensor[N, None]
# other:  Tensor[      N]
>>> tensor = torch.randn(3, 3, names=('N', None))
>>> other = torch.randn(3, names=('N',))
>>> (tensor + other).names
RuntimeError: Misaligned dims when attempting to broadcast dims ['N'] and
dims ['N', None]: dim 'N' appears in a different position from the right
across both lists.

注意

在最後兩個示例中,都可以透過名稱對張量進行對齊,然後執行加法。使用 Tensor.align_as() 按名稱對齊張量,或使用 Tensor.align_to() 將張量對齊到自定義維度順序。

置換維度#

某些操作(如 Tensor.t())會置換維度的順序。維度名稱會附加到單個維度上,因此它們也會被置換。

如果運算子接受位置索引 dim,它也可以接受一個維度名稱作為 dim

  • 檢查名稱:如果 dim 作為名稱傳入,請檢查它是否存在於張量中。

  • 傳播名稱:以與被置換維度相同的方式置換維度名稱。

>>> x = torch.randn(3, 3, names=('N', 'C'))
>>> x.transpose('N', 'C').names
('C', 'N')

收縮維度#

矩陣乘法函式遵循此規則的變體。我們先看 torch.mm(),然後推廣到批處理矩陣乘法的規則。

對於 torch.mm(tensor, other)

  • 檢查名稱:無

  • 傳播名稱:結果名稱為 (tensor.names[-2], other.names[-1])

>>> x = torch.randn(3, 3, names=('N', 'D'))
>>> y = torch.randn(3, 3, names=('in', 'out'))
>>> x.mm(y).names
('N', 'out')

本質上,矩陣乘法會在兩個維度上執行點積,將它們塌陷。當兩個張量進行矩陣乘法時,被收縮的維度會消失,不會出現在輸出張量中。

torch.mv(), torch.dot() 的工作方式類似:名稱推斷不檢查輸入名稱,並移除參與點積的維度。

>>> x = torch.randn(3, 3, names=('N', 'D'))
>>> y = torch.randn(3, names=('something',))
>>> x.mv(y).names
('N',)

現在,我們來看 torch.matmul(tensor, other)。假設 tensor.dim() >= 2other.dim() >= 2

  • 檢查名稱:檢查輸入的批次維度是否對齊且可廣播。有關輸入對齊的含義,請參閱 統一輸入名稱

  • 傳播名稱:結果名稱透過統一批次維度並移除收縮的維度得到:unify(tensor.names[:-2], other.names[:-2]) + (tensor.names[-2], other.names[-1])

示例

# Batch matrix multiply of matrices Tensor['C', 'D'] and Tensor['E', 'F'].
# 'A', 'B' are batch dimensions.
>>> x = torch.randn(3, 3, 3, 3, names=('A', 'B', 'C', 'D'))
>>> y = torch.randn(3, 3, 3, names=('B', 'E', 'F'))
>>> torch.matmul(x, y).names
('A', 'B', 'C', 'F')

最後,還有許多矩陣乘法函式的融合 add 版本。例如 addmm()addmv()。這些被視為 mm() 的名稱推斷與 add() 的名稱推斷相結合。

工廠函式#

工廠函式現在接受一個新的 names 引數,該引數將名稱與每個維度關聯起來。

>>> torch.zeros(2, 3, names=('N', 'C'))
tensor([[0., 0., 0.],
        [0., 0., 0.]], names=('N', 'C'))

out函式和原地變體#

指定為 out= 的張量具有以下行為:

  • 如果它沒有命名維度,那麼從操作中計算出的名稱將傳播到它。

  • 如果它具有任何命名維度,那麼從操作中計算出的名稱必須與其現有名稱完全匹配。否則,操作將出錯。

所有原地方法都會修改輸入,使其名稱與名稱推斷計算出的名稱相等。例如:

>>> x = torch.randn(3, 3)
>>> y = torch.randn(3, 3, names=('N', 'C'))
>>> x.names
(None, None)

>>> x += y
>>> x.names
('N', 'C')