SELU#
- class torch.nn.modules.activation.SELU(inplace=False)[source]#
逐元素應用 SELU 函式。
其中 和 。
警告
在使用
kaiming_normal或kaiming_normal_進行初始化時,應使用nonlinearity='linear'而非nonlinearity='selu',以實現 自歸一化神經網路。更多資訊請參閱torch.nn.init.calculate_gain()。更多細節可在論文 自歸一化神經網路 中找到。
- 引數
inplace (bool, optional) – 是否可以就地執行操作。預設為:
False
- 形狀
輸入: ,其中 表示任意數量的維度。
輸出: ,形狀與輸入相同。
示例
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)