mindscience.models.layers.FCSequential
- class mindscience.models.layers.FCSequential(in_channels, out_channels, layers, neurons, residual=True, act='sin', weight_init='normal', has_bias=True, bias_init='default', weight_norm=False)[源代码]
全连接层的顺序容器,全连接层按顺序添加到容器中。
- 参数:
in_channels (int) - 输入空间的通道数。
out_channels (int) - 输出空间的通道数。
layers (int) - 层数总数,包括输入/隐藏/输出层。
neurons (int) - 隐藏层的神经元数。
residual (bool, 可选) - 隐藏层的全连接残差块。默认值:
True。act (Union[str, Cell, Primitive, None], 可选) - 应用于全连接层输出的激活函数,例如
"ReLU"。默认值:"sin"。weight_init (Union[Tensor, str, Initializer, numbers.Number], 可选) - 可训练的 weight_init 参数。数据类型与输入 x 相同。str 的取值请参考函数 initializer 。默认值:
"normal"。has_bias (bool, 可选) - 指定层是否使用偏置向量。默认值:
True。bias_init (Union[Tensor, str, Initializer, numbers.Number], 可选) - 可训练的 bias_init 参数。数据类型与输入 x 相同。str 的取值请参考函数 initializer 。默认值:
"default"。weight_norm (bool, 可选) - 是否计算权重的平方和。默认值:
False。
- 输入:
input (Tensor) - 形状为 \((*, in\_channels)\) 的张量。
- 输出:
形状为 \((*, out\_channels)\) 的张量。
- 异常:
TypeError - 如果 layers 不是整数。
TypeError - 如果 neurons 不是整数。
TypeError - 如果 residual 不是布尔值。
ValueError - 如果 layers 小于 3。
样例:
>>> import numpy as np >>> from mindscience.models.layers import FCSequential >>> from mindspore import Tensor >>> inputs = np.ones((16, 3)) >>> inputs = Tensor(inputs.astype(np.float32)) >>> net = FCSequential(3, 3, 5, 32, weight_init="ones", bias_init="zeros") >>> output = net(inputs).asnumpy() >>> print(output.shape) (16, 3)