固定随机性以复现脚本运行结果

查看源文件

固定随机性的目的是复现脚本运行结果,辅助定位问题。固定随机性后,相同条件下的两次训练所产生的loss曲线应基本一致,您可以多次执行调试,方便地查找loss曲线异常的原因而无需担心上次调试的问题现象在本次运行时不再出现。

请注意,即使在所有可固定的随机性都固定后,也未必可以在MindSpore上精确复现运行结果。特别是当使用的MindSpore版本(commit id)不同时,或者是执行脚本的机器不是同一台机器时,或者执行脚本的AI训练加速器不是同一个物理设备时,即使使用相同的种子也不一定能够复现运行结果。

固定随机性后,有可能会出现运行性能下降的情况,因此建议在问题修复后,取消固定随机性,删除相关的脚本改动,以免影响脚本正常的运行性能。

本文适用于Ascend上的静态图模式。

固定MindSpore脚本随机性的步骤

  1. 在要执行的脚本的开始处插入代码,固定全局随机数种子。

    需要固定的随机数种子包括MindSpore全局随机数种子mindspore.set_seed(1);numpy等三方库的全局随机数种子numpy.random.seed(1);Python随机数种子random.seed(1)等。样例代码如下:

    import random
    
    import numpy
    
    import mindspore
    
    mindspore.set_seed(1)
    numpy.random.seed(1)
    random.seed(1)
    
  2. 固定超参。

    建议以明确的数值指定各个超参,涉及到动态学习率的,请确保生成动态学习率的各个参数都是确定的。避免使用带有随机性的超参。

  3. 固定初始化权重。

    建议通过加载固定checkpoint文件的形式固定初始化权重。加载checkpoint时要确保文件被完全加载,不能pop出某些key后再加载。

  4. 固定数据处理方法和数据顺序。

    (1)删除或替换所有随机数据处理操作(例如 删除RandomHorizontalFlip、将RandomCrop替换为Crop等)。随机操作指所有名称中带有Random的数据处理操作。

    (2)设置shuffle=False以关闭shuffle功能。不要使用数据集的sampler。

    (3)将num_parallel_workers参数设置为1以避免并行数据处理对数据顺序的影响。

    (4)如果需要从某个迭代开始训练,可以使用dataset.skip()接口跳过之前迭代的数据。 样例代码如下:

    import mindspore.dataset as ds
    
    data_set = ds.Cifar10Dataset(dataset_path, num_parallel_workers=1, shuffle=False)
    data_set.map(operations=trans, input_columns="image", num_parallel_workers=1)
    
  5. 固定网络。

    删除网络中带有随机性的算子,例如DropOut算子和名称中带有Random的算子。若有的随机算子确实不能删除,则应该设置固定的随机数种子(随机数种子建议选择0以外的数字)。DropOut算子随机性在部分场景下难以固定,建议始终删除。目前已知的随机算子包括:Random Operators;所有DropOut算子,例如DropoutDropout2DDropout3D等。

    此外,Ascend后端上有一部分特殊算子,这些算子在计算时带有微小的随机性,该随机性不会引起计算结果的错误,只是会导致计算结果在输入相同的两次计算之间产生微小的差异。针对含有这些特殊算子的网络,误差累积导致的脚本两次运行之间loss值的差异会明显增大,本文提供的loss值是否一致的判断标准不适用。Ascend后端上特殊算子的列表请见本文最后。

  6. 确认是否成功固定了随机性。

    在相同环境下两次运行训练脚本,检查loss曲线以判断是否成功固定了随机性。建议使用非下沉模式运行脚本,以得到脚本每个迭代的loss值,然后可以对前两个迭代的loss值进行对比。不建议使用下沉模式的原因是,下沉模式下一般只能得到每个epoch的loss值,由于一个epoch中经历的迭代数一般较多,随机性累积可能会使得两次运行的epoch粒度的loss值存在明显差距,无法作为随机性是否固定成功的依据。

    成功固定随机性需要满足以下两个条件:

    (1)两次运行脚本,第一个迭代的loss值满足atol=1e-3,rtol=1e-3的条件下numpy.allclose()为True。说明网络正向传播的随机性得到了固定。

    (2)两次运行脚本,第二个迭代的loss值满足atol=1e-3,rtol=1e-3的条件下numpy.allclose()为True。说明网络正向和反向传播的随机性得到了固定。

    若不能同时满足以上两个条件,应检查上述固定随机性的步骤是否都做到位了。如果固定随机性的操作均做到了,但是两次运行脚本,前两个迭代的loss值还是不一致,请新建issue向MindSpore求助

我们提供了一个成功固定随机性的样例代码,该样例代码执行了2个迭代的训练,两次运行此代码可以看到,两次训练的第一个迭代的loss值满足numpy.allclose()函数,且两次训练的第二个迭代的loss值满足numpy.allclose()函数,说明网络的随机性得到了固定。

备注

  1. 本文档主要适用于Ascend后端上GRAPH_MODE的训练脚本。

  2. Ascend后端上的特殊算子列表如下,这些算子在计算时带有微小的随机性:

    • DynamicGRUV2

    • DynamicRNN

    • LayerNorm

    • NLLLoss

    • BNTrainingReduce:当您在网络中使用BatchNorm类算子时,正向计算中会使用BNTrainingReduce算子。

    • BNTrainingReduceGrad:当您在网络中使用BatchNorm类算子时,反向计算中会使用BNTrainingReduceGrad算子。

    • Conv2DBackFilter:当您在网络中使用Conv2d算子时,反向计算会使用Conv2DBackFilter算子。

    • Conv3DBackFilter:当您在网络中使用Conv3d算子时,反向计算会使用Conv3DBackFilter算子。

    • HcomAllreduce:当您在网络中使用AllReduce算子时,正向计算中可能会使用HcomAllreduce算子。

    • MaxPool3dGrad:当您在网络中使用MaxPool3D算子时,反向计算中会使用MaxPool3dGrad算子。

    • ReduceAllD:当您在网络中使用ReduceAll算子时,正向计算中可能会使用ReduceAllD算子。

    • ReduceAnyD:当您在网络中使用ReduceAny算子时,正向计算中可能会使用ReduceAnyD算子。

    • ReduceMaxD:当您在网络中使用ReduceMax算子时,正向计算中可能会使用ReduceMaxD算子。

    • ReduceMeanD:当您在网络中使用ReduceMean算子时,正向计算中可能会使用ReduceMeanD算子。

    • ReduceMinD:当您在网络中使用ReduceMin算子时,正向计算中可能会使用ReduceMinD算子。

    • ReduceProdD:当您在网络中使用ReduceProd算子时,正向计算中可能会使用ReduceProdD算子。

    • ReduceSum、ReduceSumD:当您在网络中使用ReduceSum算子时,正向计算中可能会使用ReduceSum或ReduceSumD算子。

    • RoiAlignGrad:当您在网络中使用ROIAlign算子时,反向计算中会使用StridedSliceGrad算子。

    • SquareSum:当您在网络中使用SquareSumAll算子时,正向计算中会使用SquareSum算子。

    • StridedSliceGrad:当您在网络中使用StridedSlice算子时,反向计算中会使用StridedSliceGrad算子。