ConvTranspose2d#
- class torch.nn.modules.conv.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros', device=None, dtype=None)[原始碼]#
對由多個輸入平面組成的輸入影像應用 2D 轉置卷積運算子。
此模組可以看作是 Conv2d 相對於其輸入的梯度。它也被稱為分數步長卷積或反捲積(儘管它不是實際的反捲積運算,因為它不計算卷積的真實逆)。有關更多資訊,請參閱這裡的視覺化和反捲積網路論文。
此模組支援 TensorFloat32。
在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將對反向傳播使用不同精度。
stride控制交叉相關的步長。當 stride > 1 時,ConvTranspose2d 在空間維度上沿輸入元素之間插入零,然後再應用卷積核。這種零插入操作是轉置卷積的標準行為,它可以增加空間解析度,並且等同於可學習的上取樣操作。padding控制兩側的隱式零填充量,其值為dilation * (kernel_size - 1) - padding個點。有關詳細資訊,請參閱下面的說明。output_padding控制新增到輸出形狀一側的額外尺寸。有關詳細資訊,請參見下面的註釋。dilation控制核點之間的間距;也稱為 à trous 演算法。這比較難描述,但 此處 的連結對dilation的作用有很好的視覺化。groups控制輸入和輸出之間的連線。in_channels和out_channels都必須能被groups整除。例如,當 groups=1 時,所有輸入都會與所有輸出進行卷積。
當 groups=2 時,操作相當於有兩個並排的卷積層,每個層看到一半的輸入通道併產生一半的輸出通道,然後將兩者連線起來。
當 groups =
in_channels時,每個輸入通道都與自己的一組濾波器(大小為 )進行卷積。
引數
kernel_size、stride、padding、output_padding可以是一個單一的
int— 在這種情況下,相同的值將用於高度和寬度維度兩個 int 的
tuple– 在這種情況下,第一個 int 用於高度維度,第二個 int 用於寬度維度
注意
padding引數有效地向輸入的兩個尺寸添加了dilation * (kernel_size - 1) - padding的零填充。這是為了使當一個Conv2d和一個ConvTranspose2d使用相同的引數初始化時,它們在輸入和輸出形狀上是互逆的。然而,當stride > 1時,Conv2d會將多個輸入形狀對映到相同的輸出形狀。output_padding用於透過有效地增加一側的計算輸出形狀來解決這種歧義。請注意,output_padding僅用於確定輸出形狀,而不會實際向輸出新增零填充。注意
在某些情況下,當在 CUDA 裝置上使用張量並利用 CuDNN 時,此運算元可能會選擇一個非確定性演算法來提高效能。如果這不可取,你可以嘗試將操作設定為確定性的(可能以效能為代價),方法是設定
torch.backends.cudnn.deterministic = True。有關更多資訊,請參閱 可復現性。- 引數
in_channels (int) – 輸入影像中的通道數
out_channels (int) – 卷積產生的通道數
padding (int 或 tuple,可選) – 在輸入的每個維度兩側會新增
dilation * (kernel_size - 1) - padding的零填充。預設值:0output_padding (int 或 tuple,可選) – 在輸出形狀的每個維度的一側新增的額外尺寸。預設值:0
groups (int, 可選) – 從輸入通道到輸出通道的阻塞連線數。預設為:1
bias (bool, 可選) – 如果為
True,則向輸出新增可學習的偏置。預設為:True
- 形狀
輸入: 或
輸出: 或 ,其中
- 變數
示例
>>> # With square kernels and equal stride >>> m = nn.ConvTranspose2d(16, 33, 3, stride=2) >>> # non-square kernels and unequal stride and with padding >>> m = nn.ConvTranspose2d(16, 33, (3, 5), stride=(2, 1), padding=(4, 2)) >>> input = torch.randn(20, 16, 50, 100) >>> output = m(input) >>> # exact output size can be also specified as an argument >>> input = torch.randn(1, 16, 12, 12) >>> downsample = nn.Conv2d(16, 16, 3, stride=2, padding=1) >>> upsample = nn.ConvTranspose2d(16, 16, 3, stride=2, padding=1) >>> h = downsample(input) >>> h.size() torch.Size([1, 16, 6, 6]) >>> output = upsample(h, output_size=input.size()) >>> output.size() torch.Size([1, 16, 12, 12])