mindscience.models.layers.activation.SReLU

class mindscience.models.layers.activation.SReLU[源代码]

Sin 修正线性单元激活函数。

对输入数据逐元素应用 sin 修正线性单元函数。

输入:
  • input (Tensor) - SReLU 的输入。

输出:
  • output (Tensor) - 与 input 具有相同的类型和形状。

样例:

>>> import numpy as np
>>> from mindscience.models.layers.activation import SReLU
>>> from mindspore import Tensor
>>> input_x = Tensor(np.array([[1.2, 0.1], [0.2, 3.2]], dtype=np.float32))
>>> srelu = SReLU()
>>> output = srelu(input_x)
>>> print(output)
[[0.         0.05290067]
[0.15216905 0.        ]]