評價此頁

ConvTranspose3d#

class torch.nn.ConvTranspose3d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros', device=None, dtype=None)[原始碼]#

對由多個輸入平面組成的輸入影像應用 3D 轉置卷積運算元。轉置卷積運算元將每個輸入值與可學習的核進行逐元素相乘,並對所有輸入特徵平面的輸出進行求和。

此模組可以視為 Conv3d 相對於其輸入的梯度。它也稱為分步卷積或反捲積(儘管它不是實際的反捲積運算,因為它不計算卷積的真實逆運算)。有關更多資訊,請參閱視覺化反捲積網路論文。

此模組支援 TensorFloat32

在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將對反向傳播使用不同精度

  • stride 控制互相關的步長。

  • padding 控制兩側的隱式零填充量,其值為 dilation * (kernel_size - 1) - padding 個點。有關詳細資訊,請參閱下面的說明。

  • output_padding 控制新增到輸出形狀一側的額外尺寸。有關詳細資訊,請參見下面的註釋。

  • dilation 控制核點之間的間距;也稱為 à trous 演算法。這比較難描述,但 此處 的連結對 dilation 的作用有很好的視覺化。

  • groups 控制輸入和輸出之間的連線。 in_channelsout_channels 都必須能被 groups 整除。例如,

    • 當 groups=1 時,所有輸入都會與所有輸出進行卷積。

    • 當 groups=2 時,操作相當於有兩個並排的卷積層,每個層看到一半的輸入通道併產生一半的輸出通道,然後將兩者連線起來。

    • 當 groups = in_channels 時,每個輸入通道都與自己的濾波器集進行卷積(濾波器大小為 out_channelsin_channels\frac{\text{out\_channels}}{\text{in\_channels}})。

引數 kernel_sizestridepaddingoutput_padding 可以是

  • 單個 int – 在這種情況下,深度、高度和寬度維度使用相同的值。

  • 一個由三個整陣列成的 tuple —— 這種情況下,第一個 int 用於深度維度,第二個 int 用於高度維度,第三個 int 用於寬度維度。

注意

padding 引數有效地為輸入的兩個尺寸添加了 dilation * (kernel_size - 1) - padding 的零填充。這樣設定是為了當 Conv3dConvTranspose3d 使用相同的引數初始化時,它們在輸入和輸出形狀方面互為逆運算。但是,當 stride > 1 時,Conv3d 會將多個輸入形狀對映到相同的輸出形狀。output_padding 用於解決此歧義,透過有效地在某一方面增加計算出的輸出形狀。請注意,output_padding 僅用於確定輸出形狀,但實際上不會向輸出新增零填充。

注意

在某些情況下,當在 CUDA 裝置上使用張量並利用 CuDNN 時,此運算元可能會選擇一個非確定性演算法來提高效能。如果這不可取,你可以嘗試將操作設定為確定性的(可能以效能為代價),方法是設定 torch.backends.cudnn.deterministic = True。有關更多資訊,請參閱 可復現性

引數
  • in_channels (int) – 輸入影像中的通道數

  • out_channels (int) – 卷積產生的通道數

  • kernel_size (inttuple) – 卷積核的大小

  • stride (inttuple, 可選) – 卷積的步幅。預設為:1

  • padding (inttuple可選) – 在輸入的每個維度兩側會新增 dilation * (kernel_size - 1) - padding 的零填充。預設值:0

  • output_padding (inttuple可選) – 在輸出形狀的每個維度的一側新增的額外尺寸。預設值:0

  • groups (int, 可選) – 從輸入通道到輸出通道的阻塞連線數。預設為:1

  • bias (bool, 可選) – 如果為 True,則向輸出新增可學習的偏置。預設為:True

  • dilation (inttuple, 可選) – 核元素之間的間距。預設為:1

形狀
  • 輸入:(N,Cin,Din,Hin,Win)(N, C_{in}, D_{in}, H_{in}, W_{in}) 或者 (Cin,Din,Hin,Win)(C_{in}, D_{in}, H_{in}, W_{in})

  • 輸出:(N,Cout,Dout,Hout,Wout)(N, C_{out}, D_{out}, H_{out}, W_{out}) 或者 (Cout,Dout,Hout,Wout)(C_{out}, D_{out}, H_{out}, W_{out}),其中

Dout=(Din1)×stride[0]2×padding[0]+dilation[0]×(kernel_size[0]1)+output_padding[0]+1D_{out} = (D_{in} - 1) \times \text{stride}[0] - 2 \times \text{padding}[0] + \text{dilation}[0] \times (\text{kernel\_size}[0] - 1) + \text{output\_padding}[0] + 1
Hout=(Hin1)×stride[1]2×padding[1]+dilation[1]×(kernel_size[1]1)+output_padding[1]+1H_{out} = (H_{in} - 1) \times \text{stride}[1] - 2 \times \text{padding}[1] + \text{dilation}[1] \times (\text{kernel\_size}[1] - 1) + \text{output\_padding}[1] + 1
Wout=(Win1)×stride[2]2×padding[2]+dilation[2]×(kernel_size[2]1)+output_padding[2]+1W_{out} = (W_{in} - 1) \times \text{stride}[2] - 2 \times \text{padding}[2] + \text{dilation}[2] \times (\text{kernel\_size}[2] - 1) + \text{output\_padding}[2] + 1
變數
  • weight (Tensor) – 模組的可學習權重,形狀為 (in_channels,out_channelsgroups,(\text{in\_channels}, \frac{\text{out\_channels}}{\text{groups}}, kernel_size[0],kernel_size[1],kernel_size[2])\text{kernel\_size[0]}, \text{kernel\_size[1]}, \text{kernel\_size[2]})。這些權重的取樣值來自 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}) 其中 k=groupsCouti=02kernel_size[i]k = \frac{groups}{C_\text{out} * \prod_{i=0}^{2}\text{kernel\_size}[i]}

  • bias (Tensor) – 模組的可學習偏置,形狀為 (out_channels)。如果 biasTrue,則這些偏置值的取樣來自 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}) 其中 k=groupsCouti=02kernel_size[i]k = \frac{groups}{C_\text{out} * \prod_{i=0}^{2}\text{kernel\_size}[i]}

示例

>>> # With square kernels and equal stride
>>> m = nn.ConvTranspose3d(16, 33, 3, stride=2)
>>> # non-square kernels and unequal stride and with padding
>>> m = nn.ConvTranspose3d(16, 33, (3, 5, 2), stride=(2, 1, 1), padding=(0, 4, 2))
>>> input = torch.randn(20, 16, 10, 50, 100)
>>> output = m(input)