mindspore.nn.TrainOneStepWithLossScaleCell

class mindspore.nn.TrainOneStepWithLossScaleCell(network, optimizer, scale_sense)[源代码]

使用混合精度功能的训练网络。

实现了包含损失缩放(loss scale)的单次训练。它使用网络、优化器和用于更新损失缩放系数(loss scale)的Cell(或一个Tensor)作为参数。可在host侧或device侧更新损失缩放系数。 如果需要在host侧更新,使用Tensor作为 scale_sense ,否则,使用可更新损失缩放系数的Cell实例作为 scale_sense

参数:
  • network (Cell) - 训练网络。仅支持单输出网络。

  • optimizer (Cell) - 用于更新网络参数的优化器。

  • scale_sense (Union[Tensor, Cell]) - 如果此值为Cell类型,TrainOneStepWithLossScaleCell 会调用它来更新损失缩放系数。如果此值为Tensor类型,可调用 set_sense_scale 来更新损失缩放系数,shape为 \(()\)\((1,)\)

输入:
  • (*inputs) (Tuple(Tensor)) - shape为 \((N, \ldots)\) 的Tensor组成的元组。

输出:

Tuple,包含三个Tensor,分别为损失函数值、溢出状态和当前损失缩放系数。

  • loss (Tensor) - 标量,表示损失函数值。

  • overflow (Tensor)- 类型为bool的标量,表示是否发生溢出。

  • loss scale (Tensor)- 表示损失放大系数,shape为 \(()\)\((1,)\)

异常:
  • TypeError - scale_sense 既不是Cell,也不是Tensor。

  • ValueError - scale_sense 的shape既不是(1,)也不是()。

支持平台:

Ascend GPU

样例:

>>> import numpy as np
>>> import mindspore
>>> from mindspore import Tensor, Parameter, nn, ops
>>> from mindspore import dtype as mstype
>>>
>>> class Net(nn.Cell):
...     def __init__(self, in_features, out_features):
...         super(Net, self).__init__()
...         self.weight = Parameter(Tensor(np.ones([in_features, out_features]).astype(np.float32)),
...                                 name='weight')
...         self.matmul = ops.MatMul()
...
...     def construct(self, x):
...         output = self.matmul(x, self.weight)
...         return output
...
>>> size, in_features, out_features = 16, 16, 10
>>> #1) when the type of scale_sense is Cell:
>>> net = Net(in_features, out_features)
>>> loss = nn.MSELoss()
>>> optimizer = nn.Momentum(net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> net_with_loss = nn.WithLossCell(net, loss)
>>> manager = nn.DynamicLossScaleUpdateCell(loss_scale_value=2**12, scale_factor=2, scale_window=1000)
>>> train_network = nn.TrainOneStepWithLossScaleCell(net_with_loss, optimizer, scale_sense=manager)
>>> input = Tensor(np.ones([out_features, in_features]), mindspore.float32)
>>> labels = Tensor(np.ones([out_features,]), mindspore.float32)
>>> output = train_network(input, labels)
>>>
>>> #2) when the type of scale_sense is Tensor:
>>> net = Net(in_features, out_features)
>>> loss = nn.MSELoss()
>>> optimizer = nn.Momentum(net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> net_with_loss = nn.WithLossCell(net, loss)
>>> inputs = Tensor(np.ones([size, in_features]).astype(np.float32))
>>> label = Tensor(np.zeros([size, out_features]).astype(np.float32))
>>> scaling_sens = Tensor([1024], dtype=mstype.float32)
>>> train_network = nn.TrainOneStepWithLossScaleCell(net_with_loss, optimizer, scale_sense=scaling_sens)
>>> output = train_network(inputs, label)
>>>
>>> # update scaling sens and train the network
>>> scaling_sens = Tensor([1], dtype=mstype.float32)
>>> train_network.set_sense_scale(scaling_sens)
>>> output = train_network(inputs, label)
get_overflow_status(status, compute_output)[源代码]

获取浮点溢出状态。

溢出检测的目标过程执行完成后,获取溢出结果。继承该类自定义训练网络时,可复用该接口。

参数:
  • status (object) - 用于检测溢出的状态实例。

  • compute_output - 对特定计算过程进行溢出检测时,将 compute_output 设置为该计算过程的输出,以确保在执行计算之前获取了 status

返回:

bool,是否发生溢出。

process_loss_scale(overflow)[源代码]

根据溢出状态计算损失缩放系数。

继承该类自定义训练网络时,可复用该接口。

参数:
  • overflow (bool) - 是否发生溢出。

返回:

bool,溢出状态,即输入。

set_sense_scale(sens)[源代码]

如果使用了Tensor类型的 scale_sense ,可调用此函数修改它的值。

参数:
  • sens (Tensor) - 新的损失缩放系数,其shape和类型需要与原始 scale_sense 相同。

start_overflow_check(pre_cond, compute_input)[源代码]

启动浮点溢出检测。创建并清除溢出检测状态。

指定参数 pre_condcompute_input ,以确保在正确的时间清除溢出状态。以当前接口为例,我们需要在损失函数计算后进行清除状态,在梯度计算过程中检测溢出。在这种情况下,pre_cond 应为损失函数的输出,而 compute_input 应为梯度计算函数的输入。继承该类自定义训练网络时,可复用该接口。

参数:
  • pre_cond (Tensor) - 启动溢出检测的先决条件。它决定溢出状态清除和先前处理的执行顺序。它确保函数 start_overflow 在执行完先决条件后清除状态。

  • compute_input (object) - 后续运算的输入。需要对特定的计算过程进行溢出检测。将 compute_input 设置这一计算过程的输入,以确保在执行该计算之前清除了溢出状态。

返回:

Tuple[object, object],GPU后端的第一个值为False,而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 get_overflow_status 期间检测溢出。第二个值与 compute_input 的输入相同,用于控制执行序。