mindspore.nn.SampledSoftmaxLoss

查看源文件
class mindspore.nn.SampledSoftmaxLoss(num_sampled, num_classes, num_true=1, sampled_values=None, remove_accidental_hits=True, seed=0, reduction='none')[源代码]

抽样交叉熵损失函数。

一般在类别数很大时使用。可加速训练以交叉熵为损失函数的分类器。

参数:
  • num_sampled (int) - 抽样的类别数。

  • num_classes (int) - 类别总数。

  • num_true (int) - 每个训练样本的类别数。默认值: 1

  • sampled_values (Union[list, tuple]) - 抽样候选值。由 *CandidateSampler 函数返回的(sampled_candidates, true_expected_count , sampled_expected_count)的list或tuple。如果默认值为None,则应用 UniformCandidateSampler 。默认值: None

  • remove_accidental_hits (bool) - 是否移除抽样中的目标类等于标签的情况。默认值: True

  • seed (int) - 抽样的随机种子。默认值: 0

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'none'

    • "none":不应用规约方法。

    • "mean":计算输出元素的平均值。

    • "sum":计算输出元素的总和。

输入:
  • weights (Tensor) - 输入的权重,shape为 \((C, dim)\) 的Tensor。

  • bias (Tensor) - 分类的偏置。shape为 \((C,)\) 的Tensor。

  • labels (Tensor) - 输入目标值Tensor,其shape为 \((N, num\_true)\) ,其数据类型为 int64, int32

  • logits (Tensor) - 输入预测值Tensor,其shape为 \((N, dim)\)

输出:

Tensor或Scalar,如果 reduction'none' ,则输出是shape为 \((N,)\) 的Tensor。否则,输出为Scalar。

异常:
  • TypeError - sampled_values 不是list或tuple。

  • TypeError - labels 的数据类型既不是int32,也不是int64。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - num_samplednum_true 大于 num_classes

  • ValueError - sampled_values 的长度不等于3。

支持平台:

GPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, nn
>>> import numpy as np
>>> mindspore.set_seed(1)
>>> loss = nn.SampledSoftmaxLoss(num_sampled=4, num_classes=7, num_true=1)
>>> weights = Tensor(np.random.randint(0, 9, [7, 10]), mindspore.float32)
>>> biases = Tensor(np.random.randint(0, 9, [7]), mindspore.float32)
>>> labels = Tensor([0, 1, 2])
>>> logits = Tensor(np.random.randint(0, 9, [3, 10]), mindspore.float32)
>>> output = loss(weights, biases, labels, logits)
>>> print(output)
[4.6051701e+01 1.4000047e+01 6.1989022e-06]