mindspore.nn.GRUCell

查看源文件
class mindspore.nn.GRUCell(input_size: int, hidden_size: int, has_bias: bool = True, dtype=mstype.float32)[源代码]

GRU(Gate Recurrent Unit)称为门控循环单元。

\[\begin{split}\begin{array}{ll} r = \sigma(W_{ir} x + b_{ir} + W_{hr} h + b_{hr}) \\ z = \sigma(W_{iz} x + b_{iz} + W_{hz} h + b_{hz}) \\ n = \tanh(W_{in} x + b_{in} + r * (W_{hn} h + b_{hn})) \\ h' = (1 - z) * n + z * h \end{array}\end{split}\]

这里 \(\sigma\) 是sigmoid激活函数, \(*\) 是乘积。 \(W, b\) 是公式中输出和输入之间的可学习权重, \(h\) 是隐藏层状态(hidden state), \(r\) 是重置门(reset gate), \(z\) 是更新门(update gate), \(n\) 是第n层。 例如, \(W_{ir}, b_{ir}\) 是用于将输入 \(x\) 转换为 \(r\) 的权重和偏置。详见论文 Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation

参数:
  • input_size (int) - 输入的大小。

  • hidden_size (int) - 隐藏状态大小。

  • has_bias (bool) - cell是否有偏置项 \(b_{in}\)\(b_{hn}\) 。默认值: True

  • dtype (mindspore.dtype) - Parameters的dtype。默认值: mstype.float32

输入:
  • x (Tensor) - shape为 \((batch\_size, input\_size)\) 的Tensor。

  • hx (Tensor) - 数据类型为mindspore.float32,shape为 \((batch\_size, hidden\_size)\) 的Tensor。

输出:
  • hx’ (Tensor) - shape为 \((batch\_size, hidden\_size)\) 的Tensor。

异常:
  • TypeError - input_sizehidden_size 不是int。

  • TypeError - has_bias 不是bool值。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import numpy as np
>>> net = ms.nn.GRUCell(10, 16)
>>> x = ms.Tensor(np.ones([5, 3, 10]).astype(np.float32))
>>> hx = ms.Tensor(np.ones([3, 16]).astype(np.float32))
>>> output = []
>>> for i in range(5):
...     hx = net(x[i], hx)
...     output.append(hx)
>>> print(output[0].shape)
(3, 16)