mindspore.ops.ReLUV2

class mindspore.ops.ReLUV2[源代码]

ReLUV2接口已经弃用,请使用 mindspore.ops.ReLU 替代。

线性修正单元激活函数(Rectified Linear Unit activation function)。

按元素返回 \(\max(x,\ 0)\) 。特别说明,负数输出值会被修改为0,正数输出不受影响。

\[\text{ReLU}(x) = (x)^+ = \max(0, x),\]

输入:

  • input_x (Tensor) - 输入Tensor必须是4-D Tensor。

输出:

  • output (Tensor) - 数据类型和shape与 input_x 的相同。

  • mask (Tensor) - 保留输出,无实际意义。

异常:

  • TypeError - input_x 不是Tensor。

  • ValueError - input_x 的shape不是4-D。

支持平台:

deprecated

样例:

>>> input_x = Tensor(np.array([[[[1, -2], [-3, 4]], [[-5, 6], [7, -8]]]]), mindspore.float32)
>>> relu_v2 = ops.ReLUV2()
>>> output, _= relu_v2(input_x)
>>> print(output)
[[[[1. 0.]
   [0. 4.]]
  [[0. 6.]
   [7. 0.]]]]