mindspore.experimental.optim.lr_scheduler.SequentialLR ======================================================= .. py:class:: mindspore.experimental.optim.lr_scheduler.SequentialLR(optimizer, schedulers, milestones, last_epoch=-1) 将 `schedulers` 中的多个学习率调整策略,按照顺序串联起来,在 `milestone` 时切换到下一个学习率调整策略。 .. warning:: 这是一个实验性的动态学习率接口,需要和 `mindspore.experimental.optim `_ 下的接口配合使用。 参数: - **optimizer** (:class:`mindspore.experimental.optim.Optimizer`) - 优化器实例。 - **schedulers** (list[:class:`mindspore.experimental.optim.lr_scheduler.LRScheduler`]) - 被顺序执行的学习率调度器列表。 - **milestones** (list) - 里程碑节点的整数列表,设定了每个epoch哪个学习率调整策略被调用。 - **last_epoch** (int,可选) - 当前学习率调整策略的 `step()` 方法的执行次数。默认值: ``-1``。 异常: - **ValueError** - `schedulers` 中的 `optimizer` 与传入的 `optimizer` 不同。 - **ValueError** - `schedulers` 中的 `optimizer` 与 `schedulers[0].optimizer` 不同。 - **ValueError** - `milestones` 的长度不等于 `schedulers` 的长度减1。 .. py:method:: get_last_lr() 返回当前使用的学习率。 .. py:method:: step() 按照定义的计算逻辑计算并修改学习率。