mindspore.ops.LayerNorm

class mindspore.ops.LayerNorm(begin_norm_axis=1, begin_params_axis=1, epsilon=1e-07)[源代码]

在输入Tensor上应用层归一化(Layer Normalization)。

此算子将在给定的轴上对输入进行层归一化。Layer Normalization 描述了LayerNorm。

\[y = \frac{x - mean}{\sqrt{variance + \epsilon}} * \gamma + \beta\]

其中 \(\gamma\) 是Scalar, \(\beta\) 是偏置项, \(\epsilon\) 是精度值。

参数:

  • begin_norm_axis (int) - 指定 input_x 需进行层归一化的起始维度,其值必须在[-1, rank(input)范围内。默认值:1。

  • begin_params_axis (int) - 指定输入参数(gamma, beta) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值:1。

  • epsilon (float) - 添加到分母中的值,以确保数据稳定性。默认值:1e-7。

输入:

  • input_x (Tensor) - LayerNorm的输入,shape为 \((N, \ldots)\) 的Tensor。

  • gamma (Tensor) - 可学习参数 \(\gamma\) ,shape为 \((P_0, \ldots, P_\text{begin_params_axis})\) 的Tensor。

  • beta (Tensor) - 可学习参数 \(\beta\) 。shape为 \((P_0, \ldots, P_\text{begin_params_axis})\) 的Tensor。

输出:

tuple[Tensor],3个Tensor组成的tuple,层归一化输入和更新后的参数。

  • output_x (Tensor) - 层归一化输入,shape为是 \((N, C)\) 。数据类型和shape与 input_x 相同。

  • mean (Tensor) - 输入的均值,shape为 \((C,)\) 的Tensor。

  • variance (Tensor) - 输入的方差,shape为 \((C,)\) 的Tensor。

异常:

  • TypeError - begin_norm_axisbegin_params_axis 不是int。

  • TypeError - epsilon 不是float。

  • TypeError - input_xgammabeta 不是Tensor。

支持平台:

Ascend GPU CPU

样例:

>>> input_x = Tensor(np.array([[1, 2, 3], [1, 2, 3]]), mindspore.float32)
>>> gamma = Tensor(np.ones([3]), mindspore.float32)
>>> beta = Tensor(np.ones([3]), mindspore.float32)
>>> layer_norm = ops.LayerNorm()
>>> output, mean, variance = layer_norm(input_x, gamma, beta)
>>> print(output)
[[-0.2247448  1.         2.2247448]
 [-0.2247448  1.         2.2247448]]
>>> print(mean)
[[2.]
 [2.]]
>>> print(variance)
[[0.6666667]
 [0.6666667]]