PReLU#
- class torch.nn.modules.activation.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[原始碼]#
應用逐元素的 PReLU 函式。
或
其中 是一個可學習的引數。當不帶引數呼叫時,nn.PReLU() 使用一個引數 作用於所有輸入通道。如果使用 nn.PReLU(nChannels) 呼叫,則每個輸入通道都有一個獨立的 。
注意
為了獲得良好的效能,在學習 時,不應使用權重衰減。
注意
通道維度是輸入的第二個維度。當輸入維度小於 2 時,則沒有通道維度,通道數為 1。
- 形狀
輸入:,其中 * 表示任何數量的附加維度。
輸出: ,形狀與輸入相同。
- 變數
weight (Tensor) – 形狀為 (
num_parameters) 的可學習權重。
示例
>>> m = nn.PReLU() >>> input = torch.randn(2) >>> output = m(input)