mindspore.nn.TransformerDecoderLayer

查看源文件
class mindspore.nn.TransformerDecoderLayer(d_model: int, nhead: int, dim_feedforward: int = 2048, dropout: float = 0.1, activation: Union[str, Cell, callable] = 'relu', layer_norm_eps: float = 1e-05, batch_first: bool = False, norm_first: bool = False, dtype=mstype.float32)[源代码]

Transformer的解码器层。Transformer解码器的单层实现,包括Self Attention层、MultiheadAttention层和FeedForward层。

参数:
  • d_model (int) - 输入的特征数。

  • nhead (int) - MultiheadAttention模块中注意力头的数量。

  • dim_feedforward (int) - FeedForward层的维数。默认值:2048

  • dropout (float) - 随机丢弃比例。默认值:0.1

  • activation (Union[str, callable, Cell]) - 中间层的激活函数,可以输入字符串( "relu""gelu" )、函数接口( mindspore.ops.relu()mindspore.ops.gelu() )或激活函数层实例( mindspore.nn.ReLUmindspore.nn.GELU )。默认值: 'relu'

  • layer_norm_eps (float) - LayerNorm层的eps值,默认值:1e-5

  • batch_first (bool) - 如果为 True 则输入输出shape为 \((batch, seq, feature)\) ,反之,shape为 \((seq, batch, feature)\) 。默认值: False

  • norm_first (bool) - 如果为 True, 则LayerNorm层位于Self Attention层、MultiheadAttention层和FeedForward层之前,反之,位于其后。默认值: False

  • dtype (mindspore.dtype) - Parameter的数据类型。默认值: mstype.float32

输入:
  • tgt (Tensor) - 目标序列。如果目标序列没有batch,shape是 \((T, E)\) ;否则如果 batch_first=False,则shape为 \((T, N, E)\) ,如果batch_first=True,则shape为 \((T, N, E)\)\((T)\) 是目标序列的长度。数据类型:float16、float32或者float64。

  • memory (Tensor) - TransformerEncoder的最后一层输出序列。数据类型:float16、float32或者float64。

  • tgt_mask (Tensor, 可选) - 目标序列的掩码矩阵。shape是 \((T, T)\)\((N*nhead, T, T)\) 。数据类型:float16、float32、float64或者布尔。默认值:None

  • memory_mask (Tensor, 可选) - memory序列的掩码矩阵。shape是 \((T, S)\) 。数据类型:float16、float32、float64或者布尔。默认值:None

  • tgt_key_padding_mask (Tensor, 可选) - 目标序列Key矩阵的掩码矩阵。shape是 \((T)\) 。数据类型:float16、float32、float64或者布尔。默认值:None

  • memory_key_padding_mask (Tensor, 可选) - memory序列Key矩阵的掩码矩阵∂。hape是 \((S)\) 。数据类型:float16、float32、float64或者布尔。默认值:None

输出:

Tensor。Tensor的shape和dtype与 tgt 一致。

异常:
支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import numpy as np
>>> decoder_layer = ms.nn.TransformerDecoderLayer(d_model=512, nhead=8)
>>> memory = ms.Tensor(np.random.rand(10, 32, 512), ms.float32)
>>> tgt = ms.Tensor(np.random.rand(20, 32, 512), ms.float32)
>>> out = decoder_layer(tgt, memory)
>>> print(out.shape)
(20, 32, 512)
>>> # Alternatively, when `batch_first` is ``True``:
>>> decoder_layer = ms.nn.TransformerDecoderLayer(d_model=512, nhead=8, batch_first=True)
>>> memory = ms.Tensor(np.random.rand(32, 10, 512), ms.float32)
>>> tgt = ms.Tensor(np.random.rand(32, 20, 512), ms.float32)
>>> out = decoder_layer(tgt, memory)
>>> print(out.shape)
(32, 20, 512)