mindspore.ops.NLLLoss

查看源文件
class mindspore.ops.NLLLoss(reduction='mean', ignore_index=- 100)[源代码]

获取预测值和目标值之间的负对数似然损失。

\(reduction = none\) 时,负对数似然损失如下:

\[\ell(x, t)=L=\left\{l_{1}, \ldots, l_{N}\right\}^{\top}, \quad l_{n}=-w_{t_{n}} x_{n, t_{n}}, \quad w_{c}=\text { weight }[c] \cdot 1\]

其中, \(x\) 表示预测值, \(t\) 表示目标值, \(w\) 表示权重, \(N\) 表示batch size, \(c\) 限定范围为[0, C-1],表示类索引,其中 \(C\) 表示类的数量。

\(reduction \neq none\) 时(默认为 "mean" ),则

\[\begin{split}\ell(x, t)=\left\{\begin{array}{ll} \sum_{n=1}^{N} \frac{1}{\sum_{n=1}^{N} w_{t n}} l_{n}, & \text { if reduction }=\text { 'mean'; } \\ \sum_{n=1}^{N} l_{n}, & \text { if reduction }=\text { 'sum' } \end{array}\right\end{split}\]
参数:
  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

  • ignore_index (int) - 指定标签中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值: -100

输入:
  • logits (Tensor) - 输入预测值,shape为 \((N, C)\) 。数据类型仅支持float32或float16。

  • labels (Tensor) - 输入目标值,shape为 \((N,)\) ,取值范围为 \([0, C-1]\) 。数据类型仅支持int32或int64。

  • weight (Tensor) - 指定各类别的权重,shape为 \((C,)\) ,数据类型仅支持float32或float16。

输出:

losstotal_weight 组成的2个Tensor的tuple。

  • loss (Tensor) - 当 reduction 为’none’且 logits 为二维Tensor时, loss 的shape为 \((N,)\) 。否则, loss 为scalar。数据类型与 logits 相同。

  • total_weight (Tensor) - total_weight 是scalar,数据类型与 weight 相同。

异常:
  • TypeError - logitsweight 的数据类型既不是float16也不是float32。

  • TypeError - labels 的数据类型既不是int32也不是int64。

  • ValueError - logits 不是二维Tensor, labelsweight 不是一维Tensor。 logits 的第一个维度不等于 labelslogits 的第二个维度不等于 weight

  • ValueError - labels 的取值超出 \([0, C-1]\) ,其中 \(C\) 表示类的数量。

支持平台:

Ascend GPU CPU

样例:

>>> import numpy as np
>>> from mindspore import Tensor, ops
>>> logits = Tensor(np.array([[0.5488135, 0.71518934],
...                           [0.60276335, 0.5448832],
...                           [0.4236548, 0.6458941]]).astype(np.float32))
>>> labels = Tensor(np.array([0, 0, 0]).astype(np.int32))
>>> weight = Tensor(np.array([0.3834415, 0.79172504]).astype(np.float32))
>>> nll_loss = ops.NLLLoss(reduction="mean")
>>> loss, weight = nll_loss(logits, labels, weight)
>>> print(loss)
-0.52507716
>>> print(weight)
1.1503246