mindsponge.cell.MSARowAttentionWithPairBias

查看源文件
class mindsponge.cell.MSARowAttentionWithPairBias(num_head, key_dim, gating, msa_act_dim, pair_act_dim, batch_size=None, slice_num=0)[源代码]

MSA行注意力层。具体实现参考 Jumper et al. (2021) Suppl. Alg. 7 ‘MSARowAttentionWithPairBias’ 。来自pair激活值的信息作为MSARowAttention的注意力矩阵的偏置项,这样可以利用pair信息更新msa表示的状态。

参数:
  • num_head (int) - attention头的数量。

  • key_dim (int) - attention隐藏层的维度。

  • gating (bool) - 判断attention是否经过gating的指示器。

  • msa_act_dim (int) - msa_act的维度。

  • pair_act_dim (int) - pair_act的维度。

  • batch_size (int) - MSARowAttentionWithPairBias中参数的batch size,控制流场景下使用。默认值: None

  • slice_num (int) - 为了减少内存需要进行切分的数量。默认值: 0

输入:
  • msa_act (Tensor) - shape为 \((N_{seqs}, N_{res}, msa\_act\_dim)\)

  • msa_mask (Tensor) - msa_act矩阵的掩码,shape为 \((N_{seqs}, N_{res})\)

  • pair_act (Tensor) - shape为 \((N_{res}, N_{res}, pair\_act\_dim)\)

  • index (Tensor) - 在循环中的索引,只会在有控制流的时候使用。默认值: None

  • norm_msa_mask (Tensor) - 当做layernorm操作的时候msa_act的掩码,shape为 \((N_{seqs}, N_{res})\),默认值: None

  • norm_pair_mask (Tensor) - 当做layernorm操作的时候pair_act的掩码,shape为 \((N_{res}, N_{res})\),默认值: None

  • res_idx (Tensor) - 用于执行ROPE的残基索引,shape为 \((N_{res}, )\),默认值: None

输出:

Tensor。本层输出的msa_act,shape是 \((N_{seqs}, N_{res}, msa\_act\_dim)\)

支持平台:

Ascend GPU

样例:

>>> import numpy as np
>>> from mindsponge.cell import MSARowAttentionWithPairBias
>>> from mindspore import dtype as mstype
>>> from mindspore import Tensor
>>> model = MSARowAttentionWithPairBias(num_head=4, key_dim=4, gating=True,
...                                     msa_act_dim=64, pair_act_dim=128,
...                                     batch_size=None)
>>> msa_act = Tensor(np.ones((4, 256, 64)), mstype.float32)
>>> msa_mask = Tensor(np.ones((4, 256)), mstype.float16)
>>> pair_act = Tensor(np.ones((256, 256, 128)), mstype.float32)
>>> index = None
>>> msa_out = model(msa_act, msa_mask, pair_act, index)
>>> print(msa_out.shape)
(4, 256, 64)