mindscience.models.layers.activation.SReLU =================================================== .. py:class:: mindscience.models.layers.activation.SReLU() Sin 修正线性单元激活函数。 对输入数据逐元素应用 sin 修正线性单元函数。 输入: - **input** (Tensor) - SReLU 的输入。 输出: - **output** (Tensor) - 与 `input` 具有相同的类型和形状。