評價此頁

torch.nn.functional.mish#

torch.nn.functional.mish(input, inplace=False)[原始碼]#

逐元素地應用 Mish 函式。

Mish: A Self Regularized Non-Monotonic Neural Activation Function.

Mish(x)=xTanh(Softplus(x))\text{Mish}(x) = x * \text{Tanh}(\text{Softplus}(x))

有關更多詳細資訊,請參閱 Mish

返回型別

張量