mindflow.cell.PeRCNN

查看源文件
class mindflow.cell.PeRCNN(dim, in_channels, hidden_channels, kernel_size, dt, nu, laplace_kernel=None, conv_layers_num=3, padding='periodic', compute_dtype=ms.float32)[源代码]

物理编码循环卷积神经网络(PeRCNN),对给定的物理结构进行强制编码,实现稀疏数据上的时空演化的学习。PeRCNN可以应用于关于PDE系统的各种问题,包括正向和反向分析、数据驱动建模和PDE的发现。 更多信息可参考论文 Encoding physics to learn reaction–diffusion processes 。 在本网络中,lazy_inline用于编译阶段的加速,但当前其仅在昇腾后端生效。 PeRCNN目前支持带两个物理结构的输入。当输入形状不同时,用户需要手动增加或移除相关的参数和pi_blocks。

参数:
  • dim (int) - 输入的物理维度,二维输入的shape长度为4,三维为5,数据遵循 "NCHW""NCDHW" 格式。

  • in_channels (int) - 输入空间的通道数。

  • hidden_channels (int) - 并行卷积层中的输出空间的通道数。

  • kernel_size (int) - 并行卷积层中的卷积核参数。

  • dt (Union[int, float]) - PeRCNN的时间步。

  • nu (Union[int, float]) - 扩散项的系数。

  • laplace_kernel (mindspore.Tensor) - 三维下,设置核的shape为 \((\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})\) ,则shape为 \((C_{out}, C_{in}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[1]})\) 。二维下,shape向量为 \((N, C_{in} / \text{groups}, \text{kernel_size[0]}, \text{kernel_size[1]})\) ,则核的shape为 \((\text{kernel_size[0]}, \text{kernel_size[1]})\)

  • conv_layers_num (int) - 并行卷积层的数量。默认值: 3

  • padding (str) - 边界填充,当前仅支持周期填充。默认值: periodic

  • compute_dtype (dtype.Number) - PeRCNN的数据类型。默认值: mindspore.float32 。支持以下数据类型: mindspore.float32mindspore.float16。GPU后端建议使用float32,Ascend后端建议使用float16。

输入:
  • x (Tensor) - 三维下的shape为 \((batch\_size, channels, depth, height, width)\) ,二维下的shape为 \((batch\_size, channels, height, width)\)

输出:

Tensor,与输入的shape一致。

异常:
  • TypeError - 如果 dimin_channelshidden_channelskernel_size 不是int。

  • TypeError - 如果 dtnu 既不是int也不是float。

支持平台:

Ascend GPU

样例:

>>> import numpy as np
>>> import mindspore as ms
>>> from mindflow.cell import PeRCNN
>>> laplace_3d = [[[[[0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0],
...                 [0.0, 0.0, -0.08333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0]],
...                 [[0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0],
...                 [0.0, 0.0, 1.3333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0]],
...                 [[0.0, 0.0, -0.08333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, 1.3333333333333333, 0.0, 0.0],
...                 [-0.08333333333333333, 1.3333333333333333, -7.5, 1.3333333333333333, -0.08333333333333333],
...                 [0.0, 0.0, 1.3333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, -0.08333333333333333, 0.0, 0.0]],
...                 [[0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0],
...                 [0.0, 0.0, 1.3333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0]],
...                 [[0.0, 0.0, 0.0, 0.0, 0.0],
...                 [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, -0.08333333333333333, 0.0, 0.0],
...                 [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0]]]]]
>>> laplace = np.array(laplace_3d)
>>> grid_size = 48
>>> field = 100
>>> dx_3d = field / grid_size
>>> laplace_3d_kernel = ms.Tensor(1 / dx_3d**2 * laplace, dtype=ms.float32)
>>> rcnn_ms = PeRCNN(
...     dim=3,
...     in_channels=2,
...     hidden_channels=2,
...     kernel_size=1,
...     dt=0.5,
...     nu=0.274,
...     laplace_kernel=laplace_3d_kernel,
...     conv_layers_num=3,
...     compute_dtype=ms.float32,
...   )
>>> input = np.random.randn(1, 2, 48, 48, 48)
>>> input = ms.Tensor(input, ms.float32)
>>> output = rcnn_ms(input)
>>> print(output.shape)
(1, 2, 48, 48, 48)