快捷方式

Conv3dNormActivation

class torchvision.ops.Conv3dNormActivation(in_channels: int, out_channels: int, kernel_size: ~typing.Union[int, tuple[int, int, int]] = 3, stride: ~typing.Union[int, tuple[int, int, int]] = 1, padding: ~typing.Optional[~typing.Union[int, tuple[int, int, int], str]] = None, groups: int = 1, norm_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.batchnorm.BatchNorm3d'>, activation_layer: ~typing.Optional[~typing.Callable[[...], ~torch.nn.modules.module.Module]] = <class 'torch.nn.modules.activation.ReLU'>, dilation: ~typing.Union[int, tuple[int, int, int]] = 1, inplace: ~typing.Optional[bool] = True, bias: ~typing.Optional[bool] = None)[原始碼]

用於 Convolution3d-Normalization-Activation 塊的可配置模組。

引數:
  • in_channels (int) – 輸入影片中的通道數。

  • out_channels (int) – 由 Convolution-Normalization-Activation 塊生成的通道數

  • kernel_size – (int, optional): 卷積核的大小。預設值:3

  • stride (int, optional) – 卷積的步幅。預設值:1

  • padding (int, tuplestr, optional) – 新增到輸入所有四個邊的填充。預設值:None,在這種情況下,它將計算為 padding = (kernel_size - 1) // 2 * dilation

  • groups (int, 可選) – 從輸入通道到輸出通道的阻塞連線數。預設為:1

  • norm_layer (Callable[..., torch.nn.Module], optional) – 將堆疊在卷積層之上的歸一化層。如果為 None,則不使用此層。預設值:torch.nn.BatchNorm3d

  • activation_layer (Callable[..., torch.nn.Module], optional) – 將堆疊在歸一化層之上(如果非 None)的啟用函式,否則堆疊在卷積層之上。如果為 None,則不使用此層。預設值:torch.nn.ReLU

  • dilation (int) – 核心元素之間的間距。預設值:1

  • inplace (bool) – 啟用層的引數,可以選擇在原地執行操作。預設值 True

  • bias (bool, optional) – 在卷積層中使用偏置。預設情況下,當 norm_layer is None 時會包含偏置。

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源