評價此頁

torch.nn.functional.embedding#

torch.nn.functional.embedding(input, weight, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)[原始碼]#

生成一個簡單的查詢表,該表在固定的詞典和大小中查詢嵌入。

此模組通常用於使用索引檢索詞嵌入。模組的輸入是索引列表和嵌入矩陣,輸出是相應的詞嵌入。

有關更多詳細資訊,請參閱 torch.nn.Embedding

注意

請注意,該函式關於 padding_idx 指定的行的 weight 中條目的解析梯度預計與數值梯度不同。

注意

請注意,:class:`torch.nn.Embedding` 與此函式不同之處在於,它在構造時將 padding_idx 指定的 weight 的行初始化為全零。

引數
  • input (LongTensor) – 包含嵌入矩陣索引的張量

  • weight (Tensor) – 嵌入矩陣,行數等於最大可能索引 + 1,列數等於嵌入大小

  • padding_idx (int, optional) – 如果指定,padding_idx處的條目不計入梯度;因此,padding_idx處的嵌入向量在訓練期間不會被更新,即它保持為一個固定的“pad”。

  • max_norm (float, optional) – 如果給定,範數大於 max_norm 的每個嵌入向量將被重新歸一化為具有範數 max_norm。注意:這將修改 weight(就地)。

  • norm_type (float, optional) – 計算 max_norm 選項的 p-範數的 p 值。預設為 2.0

  • scale_grad_by_freq (bool, optional) – 如果給定,這將透過小批次中詞語頻率的倒數來縮放梯度。預設值為 False

  • sparse (bool, optional) – 如果為 True,則關於 weight 的梯度將是一個稀疏張量。有關稀疏梯度的更多詳細資訊,請參閱 torch.nn.Embedding 下的“說明”。

返回型別

張量

形狀
  • 輸入:任意形狀的 LongTensor,包含要提取的索引

  • 權重:形狀為 (V, embedding_dim)` 的浮點型嵌入矩陣,其中 V = 最大索引 + 1 且 embedding_dim = 嵌入大小

  • 輸出:(*, embedding_dim)`,其中 * 是輸入形狀

示例

>>> # a batch of 2 samples of 4 indices each
>>> input = torch.tensor([[1, 2, 4, 5], [4, 3, 2, 9]])
>>> # an embedding matrix containing 10 tensors of size 3
>>> embedding_matrix = torch.rand(10, 3)
>>> F.embedding(input, embedding_matrix)
tensor([[[ 0.8490,  0.9625,  0.6753],
         [ 0.9666,  0.7761,  0.6108],
         [ 0.6246,  0.9751,  0.3618],
         [ 0.4161,  0.2419,  0.7383]],

        [[ 0.6246,  0.9751,  0.3618],
         [ 0.0237,  0.7794,  0.0528],
         [ 0.9666,  0.7761,  0.6108],
         [ 0.3385,  0.8612,  0.1867]]])

>>> # example with padding_idx
>>> weights = torch.rand(10, 3)
>>> weights[0, :].zero_()
>>> embedding_matrix = weights
>>> input = torch.tensor([[0, 2, 0, 5]])
>>> F.embedding(input, embedding_matrix, padding_idx=0)
tensor([[[ 0.0000,  0.0000,  0.0000],
         [ 0.5609,  0.5384,  0.8720],
         [ 0.0000,  0.0000,  0.0000],
         [ 0.6262,  0.2438,  0.7471]]])