mindspore.nn.LSTMCell

class mindspore.nn.LSTMCell(input_size: int, hidden_size: int, has_bias: bool = True)[源代码]

长短期记忆网络单元(LSTMCell)。

公式如下:

\[\begin{split}\begin{array}{ll} \\ i_t = \sigma(W_{ix} x_t + b_{ix} + W_{ih} h_{(t-1)} + b_{ih}) \\ f_t = \sigma(W_{fx} x_t + b_{fx} + W_{fh} h_{(t-1)} + b_{fh}) \\ \tilde{c}_t = \tanh(W_{cx} x_t + b_{cx} + W_{ch} h_{(t-1)} + b_{ch}) \\ o_t = \sigma(W_{ox} x_t + b_{ox} + W_{oh} h_{(t-1)} + b_{oh}) \\ c_t = f_t * c_{(t-1)} + i_t * \tilde{c}_t \\ h_t = o_t * \tanh(c_t) \\ \end{array}\end{split}\]

其中 \(\sigma\) 是sigmoid函数, \(*\) 是乘积。 \(W, b\) 是公式中输出和输入之间的可学习权重。例如,\(W_{ix}, b_{ix}\) 是用于从输入 \(x\) 转换为 \(i\) 的权重和偏置。详见论文 LONG SHORT-TERM MEMORYLong Short-Term Memory Recurrent Neural Network Architectures for Large Scale Acoustic Modeling

nn层封装的LSTMCell可以简化为如下公式:

\[h^{'},c^{'} = LSTMCell(x, (h_0, c_0))\]
参数:
  • input_size (int) - 输入的大小。

  • hidden_size (int) - 隐藏状态大小。

  • has_bias (bool) - cell是否有偏置 b_ihb_hh 。默认值:True。

输入:
  • x (Tensor) - shape为 \((batch\_size, input\_size)\) 的Tensor。

  • hx (tuple) - 两个Tensor(h_0,c_0)的元组,其数据类型为mindspore.float32,shape为 \((batch\_size, hidden\_size)\)hx 的数据类型必须与 x 相同。

输出:
  • hx’ (Tensor) - 两个Tensor(h’, c’)的元组,其shape为 \((batch\_size, hidden\_size)\)

异常:
  • TypeError - input_sizehidden_size 不是整数。

  • TypeError - has_bias 不是bool。

支持平台:

Ascend GPU CPU

样例:

>>> net = nn.LSTMCell(10, 16)
>>> x = Tensor(np.ones([5, 3, 10]).astype(np.float32))
>>> h = Tensor(np.ones([3, 16]).astype(np.float32))
>>> c = Tensor(np.ones([3, 16]).astype(np.float32))
>>> output = []
>>> for i in range(5):
...     hx = net(x[i], (h, c))
...     output.append(hx)
>>> print(output[0][0].shape)
(3, 16)