評價此頁

ELU#

class torch.nn.ELU(alpha=1.0, inplace=False)[原始碼]#

逐元素應用指數線性單元 (ELU) 函式。

該方法在論文中進行了描述:Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)(透過指數線性單元(ELU)快速準確地進行深度網路學習)。

ELU 的定義為:

ELU(x)={x, if x>0α(exp(x)1), if x0\text{ELU}(x) = \begin{cases} x, & \text{ if } x > 0\\ \alpha * (\exp(x) - 1), & \text{ if } x \leq 0 \end{cases}
引數
  • alpha (float) – ELU 公式中的 α\alpha 值。預設為 1.0

  • inplace (bool) – 可以選擇是否就地執行操作。預設值:False

形狀
  • 輸入: ()(*),其中 * 表示任意數量的維度。

  • 輸出: ()(*),形狀與輸入相同。

../_images/ELU.png

示例

>>> m = nn.ELU()
>>> input = torch.randn(2)
>>> output = m(input)
extra_repr()[原始碼]#

返回模組的額外表示。

返回型別

str

forward(input)[原始碼]#

執行前向傳播。

返回型別

張量