mindspore.nn.SmoothL1Loss ========================= .. py:class:: mindspore.nn.SmoothL1Loss(beta=1.0, reduction='none') SmoothL1损失函数。逐元素进行对比,如果预测值和目标值的绝对误差小于设定阈值 `beta` ,则用平方项,否则用绝对误差项。 给定两个输入 :math:`x,\ y`,SmoothL1Loss定义如下: .. math:: L_{i} = \begin{cases} \frac{0.5 (x_i - y_i)^{2}}{\text{beta}}, & \text{if } |x_i - y_i| < \text{beta} \\ |x_i - y_i| - 0.5 * \text{beta}, & \text{otherwise.} \end{cases} 其中,:math:`{\text{beta}}` 代表阈值 `beta` 。 当 `reduction` 不是设定为 `none` 时,计算如下: .. math:: L = \begin{cases} \operatorname{mean}(L_{i}), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L_{i}), & \text{if reduction} = \text{'sum'.} \end{cases} .. note:: - SmoothL1Loss可以看成 :class:`mindspore.nn.L1Loss` 的修改版本,也可以看成 :class:`mindspore.nn.L1Loss` 和 :class:`mindspore.ops.L2Loss` 的组合。 - :class:`mindspore.nn.L1Loss` 计算两个输入Tensor之间的绝对误差,而 :class:`mindspore.ops.L2Loss` 计算两个输入Tensor之间的平方误差。 - :class:`mindspore.ops.L2Loss` 通常更快收敛,但对离群值的鲁棒性较差。该损失函数具有较好的鲁棒性。 参数: - **beta** (number,可选) - 损失函数计算在L1Loss和L2Loss间变换的阈值。默认值: ``1.0`` 。 - Ascend: 该值必须大于等于0。 - CPU/GPU: 该值必须大于0。 - **reduction** (str,可选) - 指定应用于输出结果的规约计算方式,可选 ``'none'`` 、 ``'mean'`` 、 ``'sum'`` ,默认值: ``'none'`` 。 - ``"none"``:不应用规约方法。 - ``"mean"``:计算输出元素的平均值。 - ``"sum"``:计算输出元素的总和。 输入: - **logits** (Tensor) - 预测值,任意维度Tensor。支持数据类型: - Ascend:float16、float32、bfloat16。 - CPU/GPU: float16、float32、float64。 - **labels** (Tensor) - 目标值,数据类型和shape与 `logits` 相同的Tensor。 - CPU/Ascend: 与 `logits` 的shape相同, `logits` 和 `labels` 遵循隐式类型转换规则,使数据类型一致。 - GPU: 与 `logits` 的shape和数据类型相同。 输出: Tensor。如果 `reduction` 为 ``'none'`` ,则输出为Tensor,且shape与 `logits` 的shape相同。否则shape为 :math:`()`。 异常: - **TypeError** - `logits` 或 `labels` 不是Tensor。 - **RuntimeError** - `logits` 或 `labels` 的数据类型不是float16、float32、float64或bfloat16。 - **ValueError** - `logits` 与 `labels` 的shape不同。 - **ValueError** - `reduction` 不是 ``'none'`` 、 ``'mean'`` 或 ``'sum'`` 。 - **TypeError** - `beta` 不是float、bool或int。 - **RuntimeError** - `beta` 小于等于0。