mindspore.mint.nn.GroupNorm
- class mindspore.mint.nn.GroupNorm(num_groups, num_channels, eps=1e-05, affine=True, dtype=None)[源代码]
对mini-batch输入进行组归一化。
Group Normalization被广泛用于递归神经网络中。适用单个训练用例的mini-batch输入归一化,详见论文 Group Normalization 。
Group Normalization把通道划分为组,然后计算每一组之内的均值和方差,以进行归一化。其中 \(\gamma\) 是通过训练学习出的scale值,\(\beta\) 是通过训练学习出的shift值。
公式如下,
\[y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta\]其中, \(\gamma\) 为 weight, \(\beta\) 为 bias, \(\epsilon\) 为 eps。
- 参数:
num_groups (int) - 沿通道维度待划分的组数。
num_channels (int) - 输入的通道数。
eps (float, 可选) - 添加到分母中的值,以确保数值稳定。默认
1e-05。affine (bool, 可选) - 当被设置为
True时,参数 \(\gamma\) 和 \(\beta\) 是可学习的。默认True。dtype (
mindspore.dtype, 可选) - 参数的数据类型。默认None。
- 输入:
input (Tensor) - \((N, C, *)\),其中 \(*\) 任意数量的附加维度。
- 输出:
output (Tensor) - 被标准化和缩放偏移后的tensor,具有与 input 相同的shape和数据类型。
- 异常:
ValueError - num_groups 或 num_channels 小于1,或 num_channels 未被 num_groups 整除。
- 支持平台:
Ascend
样例:
>>> import mindspore >>> import numpy as np >>> group_norm_op = mindspore.mint.nn.GroupNorm(2, 2) >>> x = mindspore.tensor(np.ones([1, 2, 4, 4], np.float32)) >>> output = group_norm_op(x) >>> print(output) [[[[0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.]] [[0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.]]]]