mindspore.nn.CrossEntropyLoss ============================= .. image:: https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/website-images/master/resource/_static/logo_source.svg :target: https://gitee.com/mindspore/mindspore/blob/master/docs/api/api_python/nn/mindspore.nn.CrossEntropyLoss.rst :alt: 查看源文件 .. py:class:: mindspore.nn.CrossEntropyLoss(weight=None, ignore_index=-100, reduction='mean', label_smoothing=0.0) 计算预测值和目标值之间的交叉熵损失。 CrossEntropyLoss支持两种不同的目标值(target): - 类别索引 (int),取值范围为 :math:`[0, C)` 其中 :math:`C` 为类别数,当reduction为 ``'none'`` 时,交叉熵损失公式如下: .. math:: \ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_{y_n} \log \frac{\exp(x_{n,y_n})}{\sum_{c=1}^C \exp(x_{n,c})} \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\} 其中, :math:`x` 表示预测值, :math:`t` 表示目标值, :math:`w` 表示权重,N表示batch size, :math:`c` 限定范围为[0, C-1],表示类索引,其中 :math:`C` 表示类的数量。 若reduction不为 ``'none'`` (默认为 ``'mean'`` ),则 .. math:: \ell(x, y) = \begin{cases} \sum_{n=1}^N \frac{1}{\sum_{n=1}^N w_{y_n} \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\}} l_n, & \text{if reduction} = \text{'mean',}\\ \sum_{n=1}^N l_n, & \text{if reduction} = \text{'sum'.} \end{cases} - 类别概率 (float),用于目标值为多个类别标签的情况。当reduction为 ``'none'`` 时,交叉熵损失公式如下: .. math:: \ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad l_n = - \sum_{c=1}^C w_c \log \frac{\exp(x_{n,c})}{\sum_{i=1}^C \exp(x_{n,i})} y_{n,c} 其中, :math:`x` 表示预测值, :math:`t` 表示目标值, :math:`w` 表示权重,N表示batch size, :math:`c` 限定范围为[0, C-1],表示类索引,其中 :math:`C` 表示类的数量。 若reduction不为 ``'none'`` (默认为 ``'mean'`` ),则 .. math:: \ell(x, y) = \begin{cases} \frac{\sum_{n=1}^N l_n}{N}, & \text{if reduction} = \text{'mean',}\\ \sum_{n=1}^N l_n, & \text{if reduction} = \text{'sum'.} \end{cases} 参数: - **weight** (Tensor) - 指定各类别的权重。若值不为None,则shape为 :math:`(C,)` 。数据类型仅支持float32或float16。默认值: ``None`` 。 - **ignore_index** (int) - 指定target中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值: ``-100`` 。 - **reduction** (str,可选) - 指定应用于输出结果的规约计算方式,可选 ``'none'`` 、 ``'mean'`` 、 ``'sum'`` ,默认值: ``'mean'`` 。 - ``'none'``:不应用规约方法。 - ``'mean'``:计算输出元素的加权平均值。 - ``'sum'``:计算输出元素的总和。 - **label_smoothing** (float) - 标签平滑值,用于计算Loss时防止模型过拟合的正则化手段。取值范围为[0.0, 1.0]。默认值: ``0.0`` 。 输入: - **logits** (Tensor) - 输入预测值,shape为 :math:`(C,)` 、 :math:`(N, C)` 或 :math:`(N, C, d_1, d_2, ..., d_K)` (针对高维数据)。输入值需为对数概率。数据类型仅支持float32或float16。 - **labels** (Tensor) - 输入目标值。若目标值为类别索引,则shape为 :math:`()` 、 :math:`(N)` 或 :math:`(N, d_1, d_2, ..., d_K)` ,数据类型仅支持int32。 若目标值为类别概率,则shape为 :math:`(C,)` 、 :math:`(N, C)` 或 :math:`(N, C, d_1, d_2, ..., d_K)` ,数据类型仅支持float32或float16。 返回: Tensor,一个数据类型与logits相同的Tensor。 异常: - **TypeError** - `weight` 不是Tensor。 - **TypeError** - `weight` 的dtype既不是float16,也不是float32。 - **TypeError** - `ignore_index` 不是int。 - **ValueError** - `reduction` 不为 ``'mean'`` 、 ``'sum'`` 或 ``'none'`` 。 - **TypeError** - `label_smoothing` 不是float。 - **TypeError** - `logits` 不是Tensor。 - **TypeError** - `labels` 不是Tensor。