torch.nn 中的別名#
創建於: 2025年7月25日 | 最後更新於: 2025年7月25日
以下是在巢狀名稱空間中 torch.nn 的對應項的別名。
torch.nn.modules#
以下是在 torch.nn.modules 名稱空間中 torch.nn 的對應項的別名。
容器 (別名)#
一個順序容器。 |
|
以列表形式儲存子模組。 |
|
以字典形式儲存子模組。 |
|
將引數儲存在一個列表中。 |
|
以字典形式儲存引數。 |
卷積層 (別名)#
對由多個輸入平面組成的輸入訊號進行1D卷積操作。 |
|
在由多個輸入平面組成的輸入訊號上應用二維卷積。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 卷積。 |
|
對由多個輸入平面組成的輸入影像應用 1D 轉置卷積運算子。 |
|
對由多個輸入平面組成的輸入影像應用 2D 轉置卷積運算子。 |
|
對由多個輸入平面組成的輸入影像應用 3D 轉置卷積運算元。 |
|
一個帶有 |
|
一個帶有 |
|
一個帶有 |
|
一個帶有 |
|
一個帶有 |
|
一個帶有 |
|
從批處理的輸入 Tensor 中提取滑動區域性塊。 |
|
將一組滑動區域性塊組合成一個大的包含 Tensor。 |
池化層 (別名)#
對由多個輸入平面組成的輸入訊號應用 1D 最大池化。 |
|
在由多個輸入平面組成的輸入訊號上應用 2D 最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 最大池化。 |
|
計算 |
|
計算 |
|
計算 |
|
對由多個輸入平面組成的輸入訊號進行1D平均池化操作。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 平均池化。 |
|
對由多個輸入層組成的輸入訊號應用 3D 平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 分數最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 分數最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用一維 p-範數平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 冪平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 冪平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 1D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 1D 自適應平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用二維自適應平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 自適應平均池化。 |
Padding 層 (別名)#
使用輸入邊界的反射來填充輸入張量。 |
|
使用輸入邊界的反射來填充輸入張量。 |
|
使用輸入邊界的反射來填充輸入張量。 |
|
使用輸入邊界的複製來填充輸入張量。 |
|
使用輸入邊界的複製來填充輸入張量。 |
|
使用輸入邊界的複製來填充輸入張量。 |
|
用零填充輸入張量邊界。 |
|
用零填充輸入張量邊界。 |
|
用零填充輸入張量邊界。 |
|
用常數值填充輸入張量邊界。 |
|
用常數值填充輸入張量邊界。 |
|
用常數值填充輸入張量邊界。 |
|
使用輸入邊界的迴圈填充來填充輸入張量。 |
|
使用輸入邊界的迴圈填充來填充輸入張量。 |
|
使用輸入邊界的迴圈填充來填充輸入張量。 |
非線性啟用函式 (加權和、非線性) (別名)#
逐元素應用指數線性單元 (ELU) 函式。 |
|
逐元素應用 Hard Shrinkage (Hardshrink) 函式。 |
|
逐元素應用 Hardsigmoid 函式。 |
|
逐元素應用 HardTanh 函式。 |
|
逐元素應用 Hardswish 函式。 |
|
逐元素應用 LeakyReLU 函式。 |
|
逐元素應用 Logsigmoid 函式。 |
|
允許模型聯合關注來自不同表示子空間的資訊。 |
|
應用逐元素的 PReLU 函式。 |
|
逐元素應用線性整流單元函式。 |
|
逐元素應用 ReLU6 函式。 |
|
逐元素應用隨機的 Leaky Rectified Linear Unit 函式。 |
|
逐元素應用 SELU 函式。 |
|
逐元素應用 CELU 函式。 |
|
應用高斯誤差線性單元函式。 |
|
逐元素應用 Sigmoid 函式。 |
|
逐元素應用 Sigmoid 線性單元 (SiLU) 函式。 |
|
逐元素應用 Mish 函式。 |
|
逐元素應用 Softplus 函式。 |
|
逐元素應用 soft shrinkage 函式。 |
|
逐元素應用 Softsign 函式。 |
|
逐元素應用雙曲正切 (Tanh) 函式。 |
|
逐元素應用 Tanhshrink 函式。 |
|
對輸入 Tensor 的每個元素進行閾值處理。 |
|
應用門控線性單元函式。 |
非線性啟用函式 (其他) (別名)#
對 n 維輸入 Tensor 應用 Softmin 函式。 |
|
將 Softmax 函式應用於 n 維輸入張量。 |
|
對每個空間位置應用特徵上的 SoftMax。 |
|
對 n 維輸入 Tensor 應用 函式。 |
|
高效的 softmax 近似。 |
歸一化層 (別名)#
對 2D 或 3D 輸入應用批歸一化。 |
|
對 4D 輸入應用 Batch Normalization。 |
|
對 5D 輸入應用批歸一化。 |
|
一個帶有懶初始化的 |
|
一個帶有懶初始化的 |
|
一個帶有懶初始化的 |
|
對輸入的小批次應用組歸一化。 |
|
對 N 維輸入應用批歸一化。 |
|
應用例項歸一化。 |
|
應用例項歸一化。 |
|
應用例項歸一化。 |
|
一個帶有 |
|
一個帶有 |
|
一個帶有 |
|
對輸入 mini-batch 應用層歸一化。 |
|
對輸入訊號應用區域性響應歸一化。 |
|
對輸入的小批次應用均方根層歸一化。 |
迴圈層 (別名)#
RNN 模組(RNN、LSTM、GRU)的基類。 |
|
對輸入序列應用多層 Elman RNN,使用 或 非線性。 |
|
對輸入序列應用多層長短期記憶 (LSTM) RNN。 |
|
對輸入序列應用多層門控迴圈單元 (GRU) RNN。 |
|
一個具有 tanh 或 ReLU 非線性的 Elman RNN 單元。 |
|
一個長短期記憶 (LSTM) 單元。 |
|
一個門控迴圈單元 (GRU) 單元。 |
Transformer 層 (別名)#
一個基本的 Transformer 層。 |
|
TransformerEncoder 是 N 個編碼器層的堆疊。 |
|
TransformerDecoder 是 N 個解碼器層的堆疊。 |
|
TransformerEncoderLayer 由自注意力機制和前饋網路組成。 |
|
TransformerDecoderLayer 由自注意力、多頭注意力和前饋網路組成。 |
線性層 (別名)#
一個佔位符身份運算元,對引數不敏感。 |
|
對輸入資料應用仿射線性變換:. |
|
對輸入資料應用雙線性變換:. |
|
一個 |
Dropout 層 (別名)#
在訓練期間,以機率 |
|
隨機將整個通道置零。 |
|
隨機將整個通道置零。 |
|
隨機將整個通道置零。 |
|
對輸入應用 Alpha Dropout。 |
|
隨機遮蔽整個通道。 |
稀疏層 (別名)#
一個簡單的查詢表,儲存固定詞彙表和大小的嵌入。 |
|
計算嵌入“包”的和或平均值,無需例項化中間嵌入。 |
距離函式 (別名)#
沿 dim 計算 和 之間的餘弦相似度。 |
|
計算輸入向量之間的成對距離,或輸入矩陣列之間的成對距離。 |
損失函式 (別名)#
建立一個標準,用於衡量輸入 和目標 之間每個元素的平均絕對誤差 (MAE)。 |
|
建立一個標準,用於衡量輸入 和目標 之間每個元素的平均平方誤差(平方 L2 範數)。 |
|
此準則計算輸入 logits 和 target 之間的交叉熵損失。 |
|
連線主義時間分類損失。 |
|
負對數似然損失。 |
|
目標為泊松分佈時的負對數似然損失。 |
|
高斯負對數似然損失。 |
|
Kullback-Leibler 散度損失。 |
|
建立一個準則,用於衡量目標值與輸入機率之間的二元交叉熵。 |
|
此損失將 Sigmoid 層和 BCELoss 結合在一個類中。 |
|
建立了一個標準,用於衡量輸入 、(兩個一維 mini-batch 或 0D Tensor)和一個標籤一維 mini-batch 或 0D Tensor (包含 1 或 -1)之間的損失。 |
|
衡量輸入張量 和標籤張量 (包含 1 或 -1)之間的損失。 |
|
建立一個標準,用於最佳化輸入 (一個二維 mini-batch Tensor)和輸出 (目標類別索引的二維 Tensor)之間的多類多分類合頁損失(基於邊距的損失)。 |
|
建立一個標準,當元素級絕對誤差小於 delta 時使用平方項,否則使用 delta 縮放的 L1 項。 |
|
建立一個標準,當元素級絕對誤差小於 beta 時使用平方項,否則使用 L1 項。 |
|
建立一個標準,用於最佳化輸入 Tensor 和目標 Tensor (包含 1 或 -1)之間的二分類邏輯損失。 |
|
建立一個標準,用於最佳化輸入 和大小為 的目標 之間的基於最大熵的多標籤 one-versus-all 損失。 |
|
建立一個標準,用於衡量輸入張量 、 和值為 1 或 -1 的標籤 Tensor 之間的損失。 |
|
建立一個標準,用於最佳化輸入 (一個二維 mini-batch Tensor)和輸出 (目標類別索引的一維張量,)之間的多類合頁損失(基於邊距的損失)。 |
|
建立一個標準,用於衡量輸入張量 、、 和一個大於 的邊距之間的三元組損失。 |
|
建立一個標準,用於衡量輸入張量 (錨點)、(正例)和 (負例)以及用於計算錨點與正例之間關係(“正距離”)和錨點與負例之間關係(“負距離”)的非負實值函式(“距離函式”)之間的三元組損失。 |
視覺層 (別名)#
根據上取樣因子重新排列張量中的元素。 |
|
PixelShuffle 操作的逆操作。 |
|
對給定的多通道一維(時間)、二維(空間)或三維(體積)資料進行上取樣。 |
|
對由多個輸入通道組成的輸入訊號應用 2D 最近鄰上取樣。 |
|
對由多個輸入通道組成的輸入訊號應用 2D 雙線性上取樣。 |
Shuffle 層 (別名)#
分割並重新排列張量中的通道。 |
torch.nn.utils#
以下是在巢狀名稱空間中 torch.nn.utils 的對應項的別名。
用於裁剪引數梯度的實用函式。
對可迭代引數的梯度範數進行裁剪。 |
|
對可迭代引數的梯度範數進行裁剪。 |
|
將引數可迭代物件中的梯度裁剪到指定值。 |
用於將 Module 引數展平成單個向量以及從單個向量展開 Module 引數的實用函式。
將引數可迭代物件展平成單個向量。 |
|
將一個向量的切片複製到引數的可迭代物件中。 |
用於融合 Module 和 BatchNorm Module 的實用函式。
將卷積模組和 BatchNorm 模組融合為一個新的卷積模組。 |
|
將卷積模組引數和 BatchNorm 模組引數融合到新的卷積模組引數中。 |
|
將線性模組和 BatchNorm 模組融合為一個新的線性模組。 |
|
將線性模組引數和 BatchNorm 模組引數融合為新的線性模組引數。 |
用於轉換 Module 引數記憶體格式的實用函式。
將 |
|
將 |
用於對 Module 引數應用和移除權重歸一化的實用函式。
對給定模組中的引數應用權重歸一化。 |
|
從模組中移除權重歸一化重引數化。 |
|
對給定模組中的引數應用譜歸一化。 |
|
從模組中移除譜歸一化重引數化。 |
用於初始化 Module 引數的實用函式。
給定一個模組類物件和引數/關鍵字引數,在不初始化引數/緩衝區的情況下例項化模組。 |