训练超参数
超参数对模型的性能有着重要影响,不同的超参数设置可能导致模型表现的巨大差异。参数的选择会影响到模型的训练速度、收敛性、容量和泛化能力等方面。且它们并非通过训练数据直接学习得到的,而是由开发者根据经验、实验或调优过程来确定的。
MindSpore Transformers 提供了如下几类超参数的配置方式。
学习率
动态学习率
学习率控制着模型权重更新的步长大小,决定了参数更新的速度。
学习率是影响模型训练速度和稳定性的关键参数。在每次迭代过程中,通过计算损失函数相对于权重的梯度,并根据学习率调整这些权重。学习率设置得过大可能会导致模型无法收敛,而设置得过小则会使训练过程过于缓慢。
YAML 参数配置
用户可通过在模型训练的 yaml 配置文件中新增 lr_schedule 模块来使用学习率。
以 DeepSeek-V3 预训练 yaml 为例,可做如下配置:
# lr schedule
lr_schedule:
type: ConstantWarmUpLR
learning_rate: 2.2e-4
warmup_ratio: 0.02
total_steps: -1 # -1 means it will load the total steps of the dataset
主要配置参数介绍
各学习率需配置的参数不同,MindSpore Transformers 目前支持了以下学习率:
以余弦预热学习率(CosineWithWarmUpLR)为例,需要关注的主要参数如下表所列:
参数 |
描述 |
取值说明 |
|---|---|---|
type |
使用学习率的类型。 |
(str, 必选) - 如 |
learning_rate |
学习率的初始值。 |
(float, 必选) - 默认值: |
warmup_steps |
预热阶段的步数。 |
(int, 可选) - 默认值: |
warmup_lr_init |
预热阶段的初始学习率。 |
(float, 可选) - 默认值: |
warmup_ratio |
预热阶段占总训练步数的比例。 |
(float, 可选) - 默认值: |
total_steps |
总的预热步数。 |
(int, 可选) - 默认值: |
lr_end |
学习率的最终值。 |
(float, 可选) - 默认值: |
在 yaml 中,可做如下配置,表示使用初始值为 1e-5 的余弦预热学习率,总预热 20 步,预热阶段占总训练步数的 1%:
# lr schedule
lr_schedule:
type: CosineWithWarmUpLR
learning_rate: 1e-5
warmup_lr_init: 0.0
warmup_ratio: 0.01
warmup_steps: 0
total_steps: 20 # -1 means it will load the total steps of the dataset
更多关于学习率 API 的介绍(如 type 的配置名称、学习率算法的介绍),可参见 MindSpore Transformers API 文档:学习率部分 的相关链接。
分组学习率
由于模型中不同层或参数对学习率的敏感度不同,在训练过程中针对不同的参数设置不同的学习率策略能够提高训练效率和性能,避免网络中部分参数过拟合训练或训练不充分的情况发生。
在配置文件中配置grouped_lr_schedule字段即可开启分组学习率功能,该配置下包含default和grouped两个可配置项:
参数名 |
说明 |
类型 |
|---|---|---|
default |
不需要分组的参数对应的学习率策略配置,可配置内容与动态学习率中 |
dict |
grouped |
各参数组及其对应的学习率策略配置,每个参数组中可配置内容与动态学习率中 |
list |
当同时配置lr_schedule和grouped_lr_schedule时,lr_schedule不生效。
以下是分组学习率配置示例:
grouped_lr_schedule:
default:
type: LinearWithWarmUpLR
learning_rate: 5.e-5
warmup_steps: 0
total_steps: -1 # -1 means it will load the total steps of the dataset
grouped:
- type: LinearWithWarmUpLR
params: ['embedding.*', 'output_layer.weight']
learning_rate: 2.5e-5
warmup_steps: 0
total_steps: -1
- type: ConstantWarmUpLR
params: ['q_layernorm', 'kv_layernorm']
learning_rate: 5.e-6
warmup_steps: 0
total_steps: -1
优化器
概述
优化器是用于优化神经网络权重的算法选择,其在训练过程中更新模型权重以最小化损失函数。
选择合适的优化器对模型的收敛速度和最终性能有着至关重要的影响。不同的优化器通过不同的方法调整学习率和其他超参数,来加速训练过程、改善收敛性并避免局部最优解。
MindSpore Transformers 当前支持以下两类优化器:
Muon 优化器
不同优化器通过不同的数学策略(如自适应学习率、动量估计、方向归一化等)影响训练稳定性、收敛速度和最终性能。
用户可通过在模型训练的 yaml 配置文件中新增 optimizer 模块来选择并配置优化器。
以下示例基于 DeepSeek-V3 预训练 yaml。
AdamW 优化器
AdamW 是一种基于自适应矩估计(Adaptive Moment Estimation)的优化器,并改进了传统 Adam 的权重衰减方式,采用了 decoupled weight decay。它通过分别维护梯度的一阶、二阶动量来实现自适应学习率,使模型在训练过程中能够稳定地进行参数更新。
由于其良好的收敛特性和训练稳定性,AdamW 广泛应用于大规模 Transformer 模型、LLM 预训练、MoE 结构等场景,是当前深度学习中最常用的优化器之一。
YAML 示例
optimizer:
type: AdamW
betas: [0.9, 0.95]
eps: 1.e-8
weight_decay: 0.01
主要配置参数介绍
有关 AdamW 优化器配置的主要参数,可参见 MindSpore Transformers API 文档:AdamW优化器部分 的相关链接。
Muon 优化器
Muon(Momentum Orthogonalized by Newton-Schulz)是一种具备矩阵结构感知(matrix-structured)和几何特性(geometry-aware)的优化器,专为大规模深度学习特别是 LLM 训练设计。Muon 通过将 SGD 动量产生的更新,然后对每个更新进行牛顿-舒尔茨迭代,作为后处理步骤,再应用到参数上,从而优化二维神经网络参数。详情可参考Muon 优化器。
YAML 示例
optimizer:
type: Muon
adamw_betas: [0.9, 0.95]
adamw_eps: 1.e-8
weight_decay: 0.01
matched_adamw_rms: 0.2
qk_clip_threshold: 100
主要配置参数介绍
Muon 优化器支持以下配置参数:
adamw_betas(list[float] 或 tuple[float], 可选):一阶和二阶矩的指数衰减率,用于匹配 AdamW 的动量统计。每个值范围在 (0.0, 1.0)。默认值:(0.95, 0.95)。adamw_eps(float, 可选):加在分母中以提高数值稳定性。必须大于 0。默认值:1e-8。weight_decay(float, 可选):权重衰减系数,用于在参数更新中施加 L2 正则化。默认值:0.1。matched_adamw_rms(float, 可选):用于对齐 AdamW 的 RMS(均方根幅度)统计,避免更新过大导致的不稳定,也防止过小更新带来的收敛变慢。默认值:0.2。qk_clip_threshold(float, 可选):用于 限制 Q/K 点积注意力的数值范围,防止 softmax 输入过大导致梯度爆炸或数值不稳定。默认值:100。