mindspore.ops.BinaryCrossEntropy

查看源文件
class mindspore.ops.BinaryCrossEntropy(reduction='mean')[源代码]

计算目标值和预测值之间的二值交叉熵损失值。

logits 设置为 \(x\)labels 设置为 \(y\) ,输出为 \(\ell(x, y)\) 。则,

\[L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]

其中, \(L\) 表示所有批次的损失, \(l\) 表示一个批次的损失,n表示1-N范围内的一个批次,\(w_n\) 表示第 \(n\) 批二进制交叉熵的权重。则,

\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]

警告

  • \(x\) 的值必须在0到1之间。

参数:
  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

输入:
  • logits (Tensor) - 输入预测值。其shape为 \((N, *)\) ,其中 \(*\) 为任意数量的额外维度。

  • labels (Tensor) - 输入目标值,其shape和数据类型与 logits 相同。

  • weight (Tensor, 可选) - 每个批次二值交叉熵的权重。且shape和数据类型必须与 logits 相同。默认值: None

输出:

Tensor,与 logits 有相同的数据类型。如果 reduction'none' ,则shape与 logits 相同。否则,输出为Scalar Tensor。

异常:
  • TypeError - logitslabelsweight 的数据类型既不是float16,也不是float32。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - labels 的shape与 logitsweight 不同。

  • TypeError - logitslabelsweight 不是Tensor。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, nn, ops
>>> class Net(nn.Cell):
...     def __init__(self):
...         super(Net, self).__init__()
...         self.binary_cross_entropy = ops.BinaryCrossEntropy()
...     def construct(self, logits, labels, weight):
...         result = self.binary_cross_entropy(logits, labels, weight)
...         return result
...
>>> net = Net()
>>> logits = Tensor(np.array([0.2, 0.7, 0.1]), mindspore.float32)
>>> labels = Tensor(np.array([0., 1., 0.]), mindspore.float32)
>>> weight = Tensor(np.array([1, 2, 2]), mindspore.float32)
>>> output = net(logits, labels, weight)
>>> print(output)
0.38240486