評價此頁

MultiLabelSoftMarginLoss#

class torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=None, reduce=None, reduction='mean')[原始碼]#

建立一個基於最大熵的多標籤一對多損失的準則,該準則在輸入 xx 和大小為 (N,C)(N, C) 的目標 yy 之間進行最佳化。對於小批次中的每個樣本:

loss(x,y)=1Ciy[i]log((1+exp(x[i]))1)+(1y[i])log(exp(x[i])(1+exp(x[i])))loss(x, y) = - \frac{1}{C} * \sum_i y[i] * \log((1 + \exp(-x[i]))^{-1}) + (1-y[i]) * \log\left(\frac{\exp(-x[i])}{(1 + \exp(-x[i]))}\right)

其中 i{0,  ,  x.nElement()1}i \in \left\{0, \; \cdots , \; \text{x.nElement}() - 1\right\}y[i]{0,  1}y[i] \in \left\{0, \; 1\right\}.

引數
  • weight (Tensor, optional) – 手動為每個類別指定的重縮放權重。如果指定,它必須是一個大小為 C 的張量。否則,假定其所有元素為 1。

  • size_average (bool, optional) – 已棄用 (參見 reduction)。預設情況下,損失值在批次中的每個損失元素上取平均值。請注意,對於某些損失,每個樣本有多個元素。如果欄位 size_average 設定為 False,則損失值在每個小批次中而是求和。當 reduceFalse 時忽略。預設值:True

  • reduce (bool, optional) – 已棄用 (參見 reduction)。預設情況下,損失值在每個小批次中根據 size_average 對觀測值進行平均或求和。當 reduceFalse 時,返回每個批次元素的損失值,並忽略 size_average。預設值:True

  • reduction (str, optional) – 指定要應用於輸出的約簡:'none' | 'mean' | 'sum''none':不進行約簡,'mean':輸出的總和將除以輸出中的元素數量,'sum':將對輸出進行求和。注意:size_averagereduce 正在被棄用,在此期間,指定這兩個引數中的任何一個都將覆蓋 reduction。預設值:'mean'

形狀
  • 輸入: (N,C)(N, C),其中 N 是批大小,C 是類別數量。

  • 目標: (N,C)(N, C),標籤目標必須與輸入具有相同的形狀。

  • 輸出:標量。如果 reduction'none',則為 (N)(N)

forward(input, target)[原始碼]#

執行前向傳播。

返回型別

張量