mindspore_gl.nn.GATConv

class mindspore_gl.nn.GATConv(in_feat_size: int, out_size: int, num_attn_head: int, input_drop_out_rate: float = 0.0, attn_drop_out_rate: float = 0.0, leaky_relu_slope: float = 0.2, activation=None, add_norm=False)[源代码]

图Attention网络。来自论文 Graph Attention Network

\[h_i^{(l+1)} = \sum_{j\in \mathcal{N}(i)} \alpha_{i,j} W^{(l)} h_j^{(l)}\]

\(\alpha_{i, j}\) 表示节点 \(i\) 和节点 \(j\) 之间的attention分数。

\[\begin{split}\alpha_{ij}^{l} = \mathrm{softmax_i} (e_{ij}^{l}) \\ e_{ij}^{l} = \mathrm{LeakyReLU}\left(\vec{a}^T [W h_{i} \| W h_{j}]\right)\end{split}\]
参数:
  • in_feat_size (int) - 输入节点特征大小。

  • out_size (int) - 输出节点特征大小。

  • num_attn_head (int) - GAT中使用的attention头数。

  • input_drop_out_rate (float, 可选) - 输入丢弃的dropout rate。默认值:0.0。

  • attn_drop_out_rate (float, 可选) - attention丢弃的dropout rate。默认值:0.0。

  • leaky_relu_slope (float, 可选) - leaky relu的斜率。默认值:0.2。

  • activation (Cell, 可选) - 激活函数,默认值:None。

  • add_norm (bool, 可选) - 边信息是否需要归一化。默认值:False。

输入:
  • x (Tensor) - 输入节点特征。Shape为 \((N,D_{in})\) 其中 \(N\) 是节点数, \(D_{in}\) 可以是任何shape。

  • g (Graph) - 输入图。

输出:
  • Tensor,输出特征Shape为 \((N,D_{out})\) ,其中 \(D_{out}\) 应等于 \(D_{in} * num\_attn\_head\)

异常:
  • TypeError - 如果 in_feat_sizeout_sizenum_attn_head 不是int。

  • TypeError - 如果 input_drop_out_rateattn_drop_out_rateleaky_relu_slope 不是float。

  • TypeError - 如果 activation 不是mindspore.nn.Cell。

  • ValueError - 如果 input_drop_out_rateattn_drop_out_rate 不在范围[0.0, 1.0)内。

支持平台:

Ascend GPU

样例:

>>> import mindspore as ms
>>> from mindspore_gl.nn import GATConv
>>> from mindspore_gl import GraphField
>>> n_nodes = 4
>>> n_edges = 7
>>> feat_size = 4
>>> src_idx = ms.Tensor([0, 1, 1, 2, 2, 3, 3], ms.int32)
>>> dst_idx = ms.Tensor([0, 0, 2, 1, 3, 0, 1], ms.int32)
>>> ones = ms.ops.Ones()
>>> feat = ones((n_nodes, feat_size), ms.float32)
>>> graph_field = GraphField(src_idx, dst_idx, n_nodes, n_edges)
>>> gatconv = GATConv(in_feat_size=4, out_size=2, num_attn_head=3)
>>> res = gatconv(feat, *graph_field.get_graph())
>>> print(res.shape)
(4, 6)