mindspore.nn.CTCLoss

class mindspore.nn.CTCLoss(blank=0, reduction='mean', zero_infinity=False)[源代码]

CTCLoss损失函数。主要用来计算连续未分段的时间序列与目标序列之间的损失。

关于CTCLoss算法详细介绍,请参考 Connectionist Temporal Classification: Labeling Unsegmented Sequence Data withRecurrent Neural Networks

参数:
  • blank (int,可选) - 空白标签。默认值:0。

  • reduction (str,可选) - 对输出应用归约方法。可选值为”none”、”mean”或”sum”。默认值:”mean”。

  • zero_infinity (bool,可选) - 在损失无限大的时候,是否将无限损失和相关梯度置为零。默认值:False。

输入:
  • log_probs (Tensor) - 预测值,shape \((T, N, C)\)\((T, C)\) 。其中T表示输入长度,N表示批次大小,C是分类数。T,N,C均为正整数。

  • targets (Tensor) - 目标值,shape \((N, S)\) 或 (sum( target_lengths ))。其中S表示最大目标长度。

  • input_lengths (Union[tuple, Tensor]) - shape为N的Tensor或tuple。表示输入长度。

  • target_lengths (Union[tuple, Tensor]) - shape为N的Tensor或tuple。表示目标长度。

输出:
  • neg_log_likelihood (Tensor) - 对每一个输入节点可微调的损失值。

异常:
  • TypeError - log_probstargets 不是Tensor。

  • TypeError - zero_infinity 不是布尔值, reduction 不是字符串。

  • TypeError - log_probs 的数据类型不是float或double。

  • TypeError - targetsinput_lengthstarget_lengths 数据类型不是int32或int64。

  • ValueError - reduction 不为”none”,”mean”或”sum”。

  • ValueError - blank 值不介于0到C之间。C是 log_probs 的分类数。

  • ValueError - 当 log_prob 的shape是 \((T, C)\) 时, target 的维度不是1或2。

  • ValueError - 当 log_prob 的shape是 \((T, C)\) 时, target 的首个维度的长度不是1。

  • RuntimeError - input_lengths 的值大于T。T是 log_probs 的长度。

  • RuntimeError - target_lengths[i] 的值不介于0到 input_length[i] 之间。

支持平台:

Ascend GPU CPU

样例:

>>> import numpy as np
>>> from mindspore import Tensor
>>> from mindspore import dtype as mstype
>>> from mindspore.nn.loss import CTCLoss
>>> T = 5      # Input sequence length
>>> C = 2      # Number of classes
>>> N = 2      # Batch size
>>> S = 3      # Target sequence length of longest target in batch (padding length)
>>> S_min = 2  # Minimum target length, for demonstration purposes
>>> arr = np.arange(T*N*C).reshape((T, N, C))
>>> ms_input = Tensor(arr, dtype=mstype.float32)
>>> input_lengths = np.full(shape=(N), fill_value=T)
>>> input_lengths = Tensor(input_lengths, dtype=mstype.int32)
>>> target_lengths = np.full(shape=(N), fill_value=S_min)
>>> target_lengths = Tensor(target_lengths, dtype=mstype.int32)
>>> target = np.random.randint(1, C, size=(N, S))
>>> target = Tensor(target, dtype=mstype.int32)
>>> ctc_loss = CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
[-45.79497  -55.794968]
>>> arr = np.arange(T*C).reshape((T, C))
>>> ms_input = Tensor(arr, dtype=mstype.float32)
>>> input_lengths = Tensor([T], dtype=mstype.int32)
>>> target_lengths = Tensor([S_min], dtype=mstype.int32)
>>> target = np.random.randint(1, C, size=(S_min,))
>>> target = Tensor(target, dtype=mstype.int32)
>>> ctc_loss = CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
-25.794968