比较与tf.nn.leaky_relu的功能差异

查看源文件

tf.nn.leaky_relu

tf.nn.leaky_relu(features, alpha=0.2, name=None) -> Tensor

更多内容详见tf.nn.leaky_relu

mindspore.nn.LeakyReLU

class mindspore.nn.LeakyReLU(alpha=0.2)(x) -> Tensor

更多内容详见mindspore.nn.LeakyReLU

差异对比

TensorFlow:应用Leaky ReLU激活函数,其中参数alpha是用于控制激活函数的斜率。

MindSpore:MindSpore此API实现功能与TensorFlow基本一致。

分类

子类

TensorFlow

MindSpore

差异

参数

参数1

features

x

功能一致,参数名不同

参数2

alpha

alpha

-

参数3

name

-

不涉及

代码示例

两API实现功能一致,用法相同。

# TensorFlow
import tensorflow as tf

features = tf.constant([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]], dtype=tf.float32)
output = tf.nn.leaky_relu(features).numpy()
print(output)
# [[-0.2  4.  -1.6]
#  [ 2.  -1.   9. ]]

# MindSpore
import mindspore
from mindspore import Tensor
import mindspore.nn as nn

x = Tensor([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]).astype('float32')
m = nn.LeakyReLU()
output = m(x)
print(output)
# [[-0.2  4.  -1.6]
#  [ 2.  -1.   9. ]]