mindspore.nn.RReLU

查看源文件
class mindspore.nn.RReLU(lower=1 / 8, upper=1 / 3)[源代码]

Randomized Leaky ReLU激活函数。

该激活函数定义如下:

\[\text{RReLU}(x_{ji}) = \begin{cases}x_{ji}, &\text{if } x_{ji} \geq 0; \cr {\alpha_{ji}} * x_{ji}, &\text{otherwise.}\end{cases}\]

其中,\(\alpha_{ji}\) ~ \(U(l, u)\), \(l \le u\)

更多细节详见 Empirical Evaluation of Rectified Activations in Convolution Network

参数:
  • lower (Union[int, float]) - x<0时激活函数的斜率的下界,默认值: 1 / 8

  • upper (Union[int, float]) - x<0时激活函数的斜率的上界,默认值: 1 / 3

输入:
  • x (Tensor) - 计算RReLU的任意维度的Tensor。

输出:

Tensor,数据类型和shape与 x 相同。

异常:
  • TypeError - lower 不是浮点数或整数。

  • TypeError - upper 不是浮点数或整数。

  • TypeError - x 不是Tensor。

  • TypeError - x 内的数据类型不是mindspore.float16或mindspore.float32。

  • ValueError - lower 大于 upper

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, nn
>>> import numpy as np
>>> x = Tensor(np.array([[-1.0, 4.0], [2.0, 0]]), mindspore.float32)
>>> r_relu = nn.RReLU()
>>> output = r_relu(x)
>>> print(output)
[[-0.31465699  4.        ]
 [ 2.          0.        ]]