SmoothL1Loss#
- class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)[原始碼]#
建立一個準則,當元素級絕對誤差小於 beta 時使用平方項,否則使用 L1 項。它比
torch.nn.MSELoss對離群點不那麼敏感,並且在某些情況下可以防止梯度爆炸(例如,請參閱 Ross Girshick 的論文 Fast R-CNN)。對於大小為 的批次,未約簡的損失可以描述為
替換
如果 reduction 不是 none,則
注意
Smooth L1 loss 可以看作是
L1Loss的精確形式,但將 的部分替換為二次函式,使其在 處的斜率為 1。二次函式段平滑了 附近的 L1 損失。注意
Smooth L1 loss 與
HuberLoss密切相關,相當於 (請注意,Smooth L1 的 beta 超引數也稱為 Huber 的 delta)。這導致了以下差異:- 引數
size_average (bool, optional) – 已棄用 (參見
reduction)。預設情況下,損失值在批次中的每個損失元素上取平均值。請注意,對於某些損失,每個樣本有多個元素。如果欄位size_average設定為False,則損失值在每個小批次中而是求和。當reduce為False時忽略。預設值:Truereduce (bool, optional) – 已棄用 (參見
reduction)。預設情況下,損失值在每個小批次中根據size_average對觀測值進行平均或求和。當reduce為False時,返回每個批次元素的損失值,並忽略size_average。預設值:Truereduction (str, optional) – 指定要應用於輸出的歸約:
'none'|'mean'|'sum'。'none':不進行歸約,'mean':輸出的總和將除以輸出中的元素數量,'sum':將輸出相加。注意:size_average和reduce正在被棄用,在此期間,指定這兩個引數中的任何一個都將覆蓋reduction。預設值:'mean'beta (float, optional) – 指定在 L1 和 L2 loss 之間切換的閾值。該值必須是非負數。預設值:1.0
- 形狀
輸入: ,其中 表示任意數量的維度。
目標:,與輸入形狀相同。
輸出:標量。如果
reduction為'none',則 ,形狀與輸入相同。