ConvTranspose1d#
- class torch.nn.modules.conv.ConvTranspose1d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros', device=None, dtype=None)[原始碼]#
對由多個輸入平面組成的輸入影像應用 1D 轉置卷積運算子。
該模組可以看作是 Conv1d 相對於其輸入的梯度。它也稱為分數步長卷積或反捲積(儘管它不是真正的反捲積運算,因為它不計算卷積的真實逆)。有關更多資訊,請參見視覺化和反捲積網路論文。
此模組支援 TensorFloat32。
在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將對反向傳播使用不同精度。
stride控制互相關的步長。padding控制兩側的隱式零填充量,其值為dilation * (kernel_size - 1) - padding個點。有關詳細資訊,請參閱下面的說明。output_padding控制新增到輸出形狀一側的額外尺寸。有關詳細資訊,請參見下面的註釋。dilation控制核點之間的間距;也稱為 à trous 演算法。這比較難描述,但 此處 的連結對dilation的作用有很好的視覺化。groups控制輸入和輸出之間的連線。in_channels和out_channels都必須能被groups整除。例如,當 groups=1 時,所有輸入都會與所有輸出進行卷積。
當 groups=2 時,操作相當於有兩個並排的卷積層,每個層看到一半的輸入通道併產生一半的輸出通道,然後將兩者連線起來。
當 groups =
in_channels時,每個輸入通道都與其自身的濾波器集進行卷積(濾波器大小為 )。
注意
padding引數在輸入的兩側有效地增加了 `dilation * (kernel_size - 1) - padding` 的零填充。這樣做是為了當 Conv1d 和 ConvTranspose1d 使用相同的引數進行初始化時,它們在輸入和輸出形狀方面互為逆運算。但是,當 `stride > 1` 時,Conv1d 會將多個輸入形狀對映到相同的輸出形狀。`output_padding` 引數用於透過有效地在一側增加計算出的輸出形狀來解決此歧義。請注意,`output_padding` 僅用於確定輸出形狀,而不會真正向輸出新增零填充。注意
在某些情況下,當使用帶有 CuDNN 的 CUDA 後端時,此運算子可能會選擇非確定性演算法以提高效能。如果您不希望這樣做,可以嘗試透過設定
torch.backends.cudnn.deterministic = True來使操作確定化(可能會犧牲效能)。有關背景資訊,請參閱關於 可復現性 的說明。- 引數
- 形狀
輸入: 或
輸出: 或 ,其中