mindspore.mint.nn.GroupNorm

查看源文件
class mindspore.mint.nn.GroupNorm(num_groups, num_channels, eps=1e-05, affine=True, dtype=None)[源代码]

对mini-batch输入进行组归一化。

Group Normalization被广泛用于递归神经网络中。适用单个训练用例的mini-batch输入归一化,详见论文 Group Normalization

Group Normalization把通道划分为组,然后计算每一组之内的均值和方差,以进行归一化。其中 \(\gamma\) 是通过训练学习出的scale值,\(\beta\) 是通过训练学习出的shift值。

公式如下,

\[y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta\]

其中, \(\gamma\)weight\(\beta\)bias\(\epsilon\)eps

参数:
  • num_groups (int) - 沿通道维度待划分的组数。

  • num_channels (int) - 输入的通道数。

  • eps (float, 可选) - 添加到分母中的值,以确保数值稳定。默认 1e-05

  • affine (bool, 可选) - 当被设置为 True 时,参数 \(\gamma\)\(\beta\) 是可学习的。默认 True

  • dtype (mindspore.dtype, 可选) - 参数的数据类型。默认 None

输入:
  • input (Tensor) - \((N, C, *)\),其中 \(*\) 任意数量的附加维度。

输出:
  • output (Tensor) - 被标准化和缩放偏移后的tensor,具有与 input 相同的shape和数据类型。

异常:
  • ValueError - num_groupsnum_channels 小于1,或 num_channels 未被 num_groups 整除。

支持平台:

Ascend

样例:

>>> import mindspore
>>> import numpy as np
>>> group_norm_op = mindspore.mint.nn.GroupNorm(2, 2)
>>> x = mindspore.tensor(np.ones([1, 2, 4, 4], np.float32))
>>> output = group_norm_op(x)
>>> print(output)
[[[[0. 0. 0. 0.]
   [0. 0. 0. 0.]
   [0. 0. 0. 0.]
   [0. 0. 0. 0.]]
  [[0. 0. 0. 0.]
   [0. 0. 0. 0.]
   [0. 0. 0. 0.]
   [0. 0. 0. 0.]]]]