mindscience.models.layers.activation.SReLU
- class mindscience.models.layers.activation.SReLU[源代码]
Sin 修正线性单元激活函数。
对输入数据逐元素应用 sin 修正线性单元函数。
- 输入:
input (Tensor) - SReLU 的输入。
- 输出:
output (Tensor) - 与 input 具有相同的类型和形状。
样例:
>>> import numpy as np >>> from mindscience.models.layers.activation import SReLU >>> from mindspore import Tensor >>> input_x = Tensor(np.array([[1.2, 0.1], [0.2, 3.2]], dtype=np.float32)) >>> srelu = SReLU() >>> output = srelu(input_x) >>> print(output) [[0. 0.05290067] [0.15216905 0. ]]