評價此頁

torch.nn 中的別名#

創建於: 2025年7月25日 | 最後更新於: 2025年7月25日

以下是在巢狀名稱空間中 torch.nn 的對應項的別名。

torch.nn.modules#

以下是在 torch.nn.modules 名稱空間中 torch.nn 的對應項的別名。

容器 (別名)#

container.Sequential

一個順序容器。

container.ModuleList

以列表形式儲存子模組。

container.ModuleDict

以字典形式儲存子模組。

container.ParameterList

將引數儲存在一個列表中。

container.ParameterDict

以字典形式儲存引數。

卷積層 (別名)#

conv.Conv1d

對由多個輸入平面組成的輸入訊號進行1D卷積操作。

conv.Conv2d

在由多個輸入平面組成的輸入訊號上應用二維卷積。

conv.Conv3d

對由多個輸入平面組成的輸入訊號應用 3D 卷積。

conv.ConvTranspose1d

對由多個輸入平面組成的輸入影像應用 1D 轉置卷積運算子。

conv.ConvTranspose2d

對由多個輸入平面組成的輸入影像應用 2D 轉置卷積運算子。

conv.ConvTranspose3d

對由多個輸入平面組成的輸入影像應用 3D 轉置卷積運算元。

conv.LazyConv1d

一個帶有 in_channels 引數的懶初始化 torch.nn.Conv1d 模組。

conv.LazyConv2d

一個帶有 in_channels 引數的懶初始化 torch.nn.Conv2d 模組。

conv.LazyConv3d

一個帶有 in_channels 引數的懶初始化 torch.nn.Conv3d 模組。

conv.LazyConvTranspose1d

一個帶有 in_channels 引數的懶初始化 torch.nn.ConvTranspose1d 模組。

conv.LazyConvTranspose2d

一個帶有 in_channels 引數的懶初始化 torch.nn.ConvTranspose2d 模組。

conv.LazyConvTranspose3d

一個帶有 in_channels 引數的懶初始化 torch.nn.ConvTranspose3d 模組。

fold.Unfold

從批處理的輸入 Tensor 中提取滑動區域性塊。

fold.Fold

將一組滑動區域性塊組合成一個大的包含 Tensor。

池化層 (別名)#

pooling.MaxPool1d

對由多個輸入平面組成的輸入訊號應用 1D 最大池化。

pooling.MaxPool2d

在由多個輸入平面組成的輸入訊號上應用 2D 最大池化。

pooling.MaxPool3d

對由多個輸入平面組成的輸入訊號應用 3D 最大池化。

pooling.MaxUnpool1d

計算 MaxPool1d 的部分逆運算。

pooling.MaxUnpool2d

計算 MaxPool2d 的部分逆運算。

pooling.MaxUnpool3d

計算 MaxPool3d 的部分逆運算。

pooling.AvgPool1d

對由多個輸入平面組成的輸入訊號進行1D平均池化操作。

pooling.AvgPool2d

對由多個輸入平面組成的輸入訊號應用 2D 平均池化。

pooling.AvgPool3d

對由多個輸入層組成的輸入訊號應用 3D 平均池化。

pooling.FractionalMaxPool2d

對由多個輸入平面組成的輸入訊號應用 2D 分數最大池化。

pooling.FractionalMaxPool3d

對由多個輸入平面組成的輸入訊號應用 3D 分數最大池化。

pooling.LPPool1d

對由多個輸入平面組成的輸入訊號應用一維 p-範數平均池化。

pooling.LPPool2d

對由多個輸入平面組成的輸入訊號應用 2D 冪平均池化。

pooling.LPPool3d

對由多個輸入平面組成的輸入訊號應用 3D 冪平均池化。

pooling.AdaptiveMaxPool1d

對由多個輸入平面組成的輸入訊號應用 1D 自適應最大池化。

pooling.AdaptiveMaxPool2d

對由多個輸入平面組成的輸入訊號應用 2D 自適應最大池化。

pooling.AdaptiveMaxPool3d

對由多個輸入平面組成的輸入訊號應用 3D 自適應最大池化。

pooling.AdaptiveAvgPool1d

對由多個輸入平面組成的輸入訊號應用 1D 自適應平均池化。

pooling.AdaptiveAvgPool2d

對由多個輸入平面組成的輸入訊號應用二維自適應平均池化。

pooling.AdaptiveAvgPool3d

對由多個輸入平面組成的輸入訊號應用 3D 自適應平均池化。

Padding 層 (別名)#

padding.ReflectionPad1d

使用輸入邊界的反射來填充輸入張量。

padding.ReflectionPad2d

使用輸入邊界的反射來填充輸入張量。

padding.ReflectionPad3d

使用輸入邊界的反射來填充輸入張量。

padding.ReplicationPad1d

使用輸入邊界的複製來填充輸入張量。

padding.ReplicationPad2d

使用輸入邊界的複製來填充輸入張量。

padding.ReplicationPad3d

使用輸入邊界的複製來填充輸入張量。

padding.ZeroPad1d

用零填充輸入張量邊界。

padding.ZeroPad2d

用零填充輸入張量邊界。

padding.ZeroPad3d

用零填充輸入張量邊界。

padding.ConstantPad1d

用常數值填充輸入張量邊界。

padding.ConstantPad2d

用常數值填充輸入張量邊界。

padding.ConstantPad3d

用常數值填充輸入張量邊界。

padding.CircularPad1d

使用輸入邊界的迴圈填充來填充輸入張量。

padding.CircularPad2d

使用輸入邊界的迴圈填充來填充輸入張量。

padding.CircularPad3d

使用輸入邊界的迴圈填充來填充輸入張量。

非線性啟用函式 (加權和、非線性) (別名)#

activation.ELU

逐元素應用指數線性單元 (ELU) 函式。

activation.Hardshrink

逐元素應用 Hard Shrinkage (Hardshrink) 函式。

activation.Hardsigmoid

逐元素應用 Hardsigmoid 函式。

activation.Hardtanh

逐元素應用 HardTanh 函式。

activation.Hardswish

逐元素應用 Hardswish 函式。

activation.LeakyReLU

逐元素應用 LeakyReLU 函式。

activation.LogSigmoid

逐元素應用 Logsigmoid 函式。

activation.MultiheadAttention

允許模型聯合關注來自不同表示子空間的資訊。

activation.PReLU

應用逐元素的 PReLU 函式。

activation.ReLU

逐元素應用線性整流單元函式。

activation.ReLU6

逐元素應用 ReLU6 函式。

activation.RReLU

逐元素應用隨機的 Leaky Rectified Linear Unit 函式。

activation.SELU

逐元素應用 SELU 函式。

activation.CELU

逐元素應用 CELU 函式。

activation.GELU

應用高斯誤差線性單元函式。

activation.Sigmoid

逐元素應用 Sigmoid 函式。

activation.SiLU

逐元素應用 Sigmoid 線性單元 (SiLU) 函式。

activation.Mish

逐元素應用 Mish 函式。

activation.Softplus

逐元素應用 Softplus 函式。

activation.Softshrink

逐元素應用 soft shrinkage 函式。

activation.Softsign

逐元素應用 Softsign 函式。

activation.Tanh

逐元素應用雙曲正切 (Tanh) 函式。

activation.Tanhshrink

逐元素應用 Tanhshrink 函式。

activation.Threshold

對輸入 Tensor 的每個元素進行閾值處理。

activation.GLU

應用門控線性單元函式。

非線性啟用函式 (其他) (別名)#

activation.Softmin

對 n 維輸入 Tensor 應用 Softmin 函式。

activation.Softmax

將 Softmax 函式應用於 n 維輸入張量。

activation.Softmax2d

對每個空間位置應用特徵上的 SoftMax。

activation.LogSoftmax

對 n 維輸入 Tensor 應用 log(Softmax(x))\log(\text{Softmax}(x)) 函式。

adaptive.AdaptiveLogSoftmaxWithLoss

高效的 softmax 近似。

歸一化層 (別名)#

batchnorm.BatchNorm1d

對 2D 或 3D 輸入應用批歸一化。

batchnorm.BatchNorm2d

對 4D 輸入應用 Batch Normalization。

batchnorm.BatchNorm3d

對 5D 輸入應用批歸一化。

batchnorm.LazyBatchNorm1d

一個帶有懶初始化的 torch.nn.BatchNorm1d 模組。

batchnorm.LazyBatchNorm2d

一個帶有懶初始化的 torch.nn.BatchNorm2d 模組。

batchnorm.LazyBatchNorm3d

一個帶有懶初始化的 torch.nn.BatchNorm3d 模組。

normalization.GroupNorm

對輸入的小批次應用組歸一化。

batchnorm.SyncBatchNorm

對 N 維輸入應用批歸一化。

instancenorm.InstanceNorm1d

應用例項歸一化。

instancenorm.InstanceNorm2d

應用例項歸一化。

instancenorm.InstanceNorm3d

應用例項歸一化。

instancenorm.LazyInstanceNorm1d

一個帶有 num_features 引數懶初始化的 torch.nn.InstanceNorm1d 模組。

instancenorm.LazyInstanceNorm2d

一個帶有 num_features 引數懶初始化的 torch.nn.InstanceNorm2d 模組。

instancenorm.LazyInstanceNorm3d

一個帶有 num_features 引數懶初始化的 torch.nn.InstanceNorm3d 模組。

normalization.LayerNorm

對輸入 mini-batch 應用層歸一化。

normalization.LocalResponseNorm

對輸入訊號應用區域性響應歸一化。

normalization.RMSNorm

對輸入的小批次應用均方根層歸一化。

迴圈層 (別名)#

rnn.RNNBase

RNN 模組(RNN、LSTM、GRU)的基類。

rnn.RNN

對輸入序列應用多層 Elman RNN,使用 tanh\tanhReLU\text{ReLU} 非線性。

rnn.LSTM

對輸入序列應用多層長短期記憶 (LSTM) RNN。

rnn.GRU

對輸入序列應用多層門控迴圈單元 (GRU) RNN。

rnn.RNNCell

一個具有 tanh 或 ReLU 非線性的 Elman RNN 單元。

rnn.LSTMCell

一個長短期記憶 (LSTM) 單元。

rnn.GRUCell

一個門控迴圈單元 (GRU) 單元。

Transformer 層 (別名)#

transformer.Transformer

一個基本的 Transformer 層。

transformer.TransformerEncoder

TransformerEncoder 是 N 個編碼器層的堆疊。

transformer.TransformerDecoder

TransformerDecoder 是 N 個解碼器層的堆疊。

transformer.TransformerEncoderLayer

TransformerEncoderLayer 由自注意力機制和前饋網路組成。

transformer.TransformerDecoderLayer

TransformerDecoderLayer 由自注意力、多頭注意力和前饋網路組成。

線性層 (別名)#

linear.Identity

一個佔位符身份運算元,對引數不敏感。

linear.Linear

對輸入資料應用仿射線性變換:y=xAT+by = xA^T + b.

linear.Bilinear

對輸入資料應用雙線性變換:y=x1TAx2+by = x_1^T A x_2 + b.

linear.LazyLinear

一個 torch.nn.Linear 模組,其中 in_features 會被推斷。

Dropout 層 (別名)#

dropout.Dropout

在訓練期間,以機率 p 隨機將輸入張量中的一些元素歸零。

dropout.Dropout1d

隨機將整個通道置零。

dropout.Dropout2d

隨機將整個通道置零。

dropout.Dropout3d

隨機將整個通道置零。

dropout.AlphaDropout

對輸入應用 Alpha Dropout。

dropout.FeatureAlphaDropout

隨機遮蔽整個通道。

稀疏層 (別名)#

sparse.Embedding

一個簡單的查詢表,儲存固定詞彙表和大小的嵌入。

sparse.EmbeddingBag

計算嵌入“包”的和或平均值,無需例項化中間嵌入。

距離函式 (別名)#

distance.CosineSimilarity

沿 dim 計算 x1x_1x2x_2 之間的餘弦相似度。

distance.PairwiseDistance

計算輸入向量之間的成對距離,或輸入矩陣列之間的成對距離。

損失函式 (別名)#

loss.L1Loss

建立一個標準,用於衡量輸入 xx 和目標 yy 之間每個元素的平均絕對誤差 (MAE)。

loss.MSELoss

建立一個標準,用於衡量輸入 xx 和目標 yy 之間每個元素的平均平方誤差(平方 L2 範數)。

loss.CrossEntropyLoss

此準則計算輸入 logits 和 target 之間的交叉熵損失。

loss.CTCLoss

連線主義時間分類損失。

loss.NLLLoss

負對數似然損失。

loss.PoissonNLLLoss

目標為泊松分佈時的負對數似然損失。

loss.GaussianNLLLoss

高斯負對數似然損失。

loss.KLDivLoss

Kullback-Leibler 散度損失。

loss.BCELoss

建立一個準則,用於衡量目標值與輸入機率之間的二元交叉熵。

loss.BCEWithLogitsLoss

此損失將 Sigmoid 層和 BCELoss 結合在一個類中。

loss.MarginRankingLoss

建立了一個標準,用於衡量輸入 x1x1x2x2(兩個一維 mini-batch 或 0D Tensor)和一個標籤一維 mini-batch 或 0D Tensor yy(包含 1 或 -1)之間的損失。

loss.HingeEmbeddingLoss

衡量輸入張量 xx 和標籤張量 yy(包含 1 或 -1)之間的損失。

loss.MultiLabelMarginLoss

建立一個標準,用於最佳化輸入 xx(一個二維 mini-batch Tensor)和輸出 yy(目標類別索引的二維 Tensor)之間的多類多分類合頁損失(基於邊距的損失)。

loss.HuberLoss

建立一個標準,當元素級絕對誤差小於 delta 時使用平方項,否則使用 delta 縮放的 L1 項。

loss.SmoothL1Loss

建立一個標準,當元素級絕對誤差小於 beta 時使用平方項,否則使用 L1 項。

loss.SoftMarginLoss

建立一個標準,用於最佳化輸入 Tensor xx 和目標 Tensor yy(包含 1 或 -1)之間的二分類邏輯損失。

loss.MultiLabelSoftMarginLoss

建立一個標準,用於最佳化輸入 xx 和大小為 (N,C)(N, C) 的目標 yy 之間的基於最大熵的多標籤 one-versus-all 損失。

loss.CosineEmbeddingLoss

建立一個標準,用於衡量輸入張量 x1x_1x2x_2 和值為 1 或 -1 的標籤 Tensor yy 之間的損失。

loss.MultiMarginLoss

建立一個標準,用於最佳化輸入 xx(一個二維 mini-batch Tensor)和輸出 yy(目標類別索引的一維張量,0yx.size(1)10 \leq y \leq \text{x.size}(1)-1)之間的多類合頁損失(基於邊距的損失)。

loss.TripletMarginLoss

建立一個標準,用於衡量輸入張量 x1x1x2x2x3x3 和一個大於 00 的邊距之間的三元組損失。

loss.TripletMarginWithDistanceLoss

建立一個標準,用於衡量輸入張量 aa(錨點)、pp(正例)和 nn(負例)以及用於計算錨點與正例之間關係(“正距離”)和錨點與負例之間關係(“負距離”)的非負實值函式(“距離函式”)之間的三元組損失。

視覺層 (別名)#

pixelshuffle.PixelShuffle

根據上取樣因子重新排列張量中的元素。

pixelshuffle.PixelUnshuffle

PixelShuffle 操作的逆操作。

upsampling.Upsample

對給定的多通道一維(時間)、二維(空間)或三維(體積)資料進行上取樣。

upsampling.UpsamplingNearest2d

對由多個輸入通道組成的輸入訊號應用 2D 最近鄰上取樣。

upsampling.UpsamplingBilinear2d

對由多個輸入通道組成的輸入訊號應用 2D 雙線性上取樣。

Shuffle 層 (別名)#

channelshuffle.ChannelShuffle

分割並重新排列張量中的通道。

torch.nn.utils#

以下是在巢狀名稱空間中 torch.nn.utils 的對應項的別名。

用於裁剪引數梯度的實用函式。

clip_grad.clip_grad_norm_

對可迭代引數的梯度範數進行裁剪。

clip_grad.clip_grad_norm

對可迭代引數的梯度範數進行裁剪。

clip_grad.clip_grad_value_

將引數可迭代物件中的梯度裁剪到指定值。

用於將 Module 引數展平成單個向量以及從單個向量展開 Module 引數的實用函式。

convert_parameters.parameters_to_vector

將引數可迭代物件展平成單個向量。

convert_parameters.vector_to_parameters

將一個向量的切片複製到引數的可迭代物件中。

用於融合 Module 和 BatchNorm Module 的實用函式。

fusion.fuse_conv_bn_eval

將卷積模組和 BatchNorm 模組融合為一個新的卷積模組。

fusion.fuse_conv_bn_weights

將卷積模組引數和 BatchNorm 模組引數融合到新的卷積模組引數中。

fusion.fuse_linear_bn_eval

將線性模組和 BatchNorm 模組融合為一個新的線性模組。

fusion.fuse_linear_bn_weights

將線性模組引數和 BatchNorm 模組引數融合為新的線性模組引數。

用於轉換 Module 引數記憶體格式的實用函式。

memory_format.convert_conv2d_weight_memory_format

nn.Conv2d.weightmemory_format 轉換為指定的 memory_format

memory_format.convert_conv3d_weight_memory_format

nn.Conv3d.weightmemory_format 轉換為 memory_format。轉換會遞迴地應用於巢狀的 nn.Module,包括 module

用於對 Module 引數應用和移除權重歸一化的實用函式。

weight_norm.weight_norm

對給定模組中的引數應用權重歸一化。

weight_norm.remove_weight_norm

從模組中移除權重歸一化重引數化。

spectral_norm.spectral_norm

對給定模組中的引數應用譜歸一化。

spectral_norm.remove_spectral_norm

從模組中移除譜歸一化重引數化。

用於初始化 Module 引數的實用函式。

init.skip_init

給定一個模組類物件和引數/關鍵字引數,在不初始化引數/緩衝區的情況下例項化模組。