mindspore.ops.Primitive

查看源文件
class mindspore.ops.Primitive(name)[源代码]

Primitive是Python中算子原语的基类。

参数:
  • name (str) - 当前Primitive的名称。

样例:

>>> from mindspore.ops import prim_attr_register, Primitive
>>> add = Primitive('add')
>>>
>>> # or work with prim_attr_register:
>>> # init a Primitive class with attr1 and attr2
>>> class Add(Primitive):
...     @prim_attr_register
...     def __init__(self, attr1, attr2):
...         '''init for add'''
...     # check attr1 and attr2 or do some initializations
...     # init a Primitive obj with attr1=1 and attr2=2
>>> add = Add(attr1=1, attr2=2)
add_prim_attr(name, value)[源代码]

添加Primitive的属性。

参数:
  • name (str) - 属性名称。

  • value (Any) - 属性值。

样例:

>>> import mindspore.ops as ops
>>> a = ops.Add()
>>> a = a.add_prim_attr("attr",1)
>>> out = a.attrs["attr"]
>>> print(out)
1
check_elim(*args)[源代码]

检查是否可以消除此Primitive。有需要的子类可以重写该方法。

参数:
  • args (Primitive args) - 与当前Primitive的参数相同。

返回:

由两个元素组成的元组。第一个元素是指是否能在编译阶段计算Primitive,第二个元素是计算结果。

样例:

>>> import numpy as np
>>> import mindspore
>>> from mindspore import Tensor
>>> from mindspore.ops import prim_attr_register, Primitive
>>> class AddN(Primitive):
...     @prim_attr_register
...     def __init__(self):
...         self.init_prim_io_names(inputs=["inputs"], outputs=["sum"])
...     def check_elim(self, inputs):
...         if len(inputs) != 1:
...             return (False, None)
...         if isinstance(inputs[0], Tensor):
...             return (True, inputs[0])
...
>>> addn = AddN()
>>> input_x = Tensor(np.array([1, 2, 3]), mindspore.float32)
>>> output = addn.check_elim((input_x,))
>>> print(output)
(True, Tensor(shape=[3], dtype=Float32, value= [ 1.00000000e+00,  2.00000000e+00,  3.00000000e+00]))
del_prim_attr(name)[源代码]

删除Primitive的属性。

参数:
  • name (str) - 属性名称。

样例:

>>> import mindspore.ops as ops
>>> a = ops.Add()
>>> a = a.add_prim_attr("attr",1)
>>> a = a.del_prim_attr("attr")
>>> print(a.attrs)
{}
init_prim_io_names(inputs, outputs)[源代码]

初始化Tensor或属性的输入输出的名称。

参数:
  • inputs (list[str]) - 输入名称的列表。

  • outputs (list[str]) - 输出名称的列表。

样例:

>>> import mindspore.ops as ops
>>> a = ops.Add()
>>> a.init_prim_io_names(["x","y"],["sum"])
>>> print(a.input_names)
['x','y']
>>> print(a.output_names)
['sum']
place(role, rank_id)[源代码]

设置Primitive算子标签。让此算子在对应进程上执行。 每个进程的标签都由进程角色 rolerank_id 组成,因此对算子设置标签,代表着算子在哪个进程执行,从而执行分布式训练等任务。

说明

  • 此接口只在成功调用 mindspore.communication.init() 完成动态组网后才能生效。

参数:
  • role (str) - 算子执行所在进程的角色。只支持’MS_WORKER’。

  • rank_id (int) - 算子执行所在进程的id。在相同角色进程间, rank_id 是唯一的。

样例:

>>> from mindspore import context
>>> import mindspore.ops as ops
>>> context.set_context(mode=context.GRAPH_MODE)
>>> matmul = ops.MatMul()
>>> matmul.place('MS_WORKER', 0)
recompute(mode=True)[源代码]

设置Primitive的重计算属性。

如果有一个被设置了重计算属性的Primitive,并且其结果在计算导数的时候被使用,那么不会保存该Primitive在前向网络中的中间计算结果,而是在自动微分的时候重新进行计算。

说明

  • 如果计算涉及随机化或全局变量,则暂无法保证等效性。

  • 在PyNative模式下不支持。

参数:
  • mode (bool) - Primitive是否设置了重计算。默认值: True

样例:

>>> import numpy as np
>>> import mindspore as ms
>>> from mindspore import Tensor, ops, nn
>>> class NetRecompute(nn.Cell):
...     def __init__(self):
...         super(NetRecompute,self).__init__()
...         self.relu = ops.ReLU().recompute()
...         self.sqrt = ops.Sqrt()
...     def construct(self, x):
...         out = self.relu(x)
...         return self.sqrt(out)
...
>>> class GradNet(nn.Cell):
...     def __init__(self, network):
...         super(GradNet,self).__init__()
...         self.network = network
...         self.grad = ops.GradOperation()
...     def construct(self, x):
...         g_out = self.grad(self.network)(x)
...         return g_out
...
>>> x = Tensor(np.array([-1,1]).astype(np.float32))
>>> net = NetRecompute()
>>> grad = GradNet(net)
>>> a = grad(x)
>>> print(a)
[0. 0.5]
set_device(device_target)[源代码]

设置Primitive执行后端。

参数:
  • device_target (str) - 后端名称,支持CPU、GPU、Ascend。

样例:

>>> import mindspore.ops as ops
>>> a = ops.Add()
>>> a = a.set_device("GPU")
>>> print(a.primitive_target)
GPU
set_prim_instance_name(instance_name)[源代码]

设置Primitive算子的实例的名称。

说明

当用户定义Primitive算子时,默认调用它。

参数:
  • instance_name (str) - 用户设置的Primitive算子的实例的名称。

样例:

>>> import mindspore.ops as ops
>>> a = ops.Add()
>>> a = a.set_prim_instance_name("add")
>>> print(a.instance_name)
add
set_stage(stage)[源代码]

将stage的ID添加到Primitive属性中。

说明

仅在半自动并行模式下有效。在其他并行模式下,请将其设置为0。

参数:
  • stage (int) - 当前stage的ID。

样例:

>>> from mindspore import ops
>>> add = ops.Add()
>>> print(add.set_stage(0))
Prim[Add]<stage=0>
shard(in_strategy=None, out_strategy=None)[源代码]

将切分策略添加到Primitive属性中。

说明

仅在半自动并行或自动并行模式下有效。在其他并行模式中,将忽略此处设置的策略。

参数:
  • in_strategy (tuple) - 描述算子输入的切分策略。默认值: None

  • out_strategy (tuple) - 描述算子输出的切分策略,仅针对某些算子,如MatMul。默认值: None

样例:

>>> from mindspore import ops
>>> add = ops.Add()
>>> print(add.shard(((1, 1), (1, 1))))
Prim[Add]<in_strategy=((1, 1), (1, 1)), out_strategy=None>
>>> # using layout
>>> from mindspore import Layout
>>> layout = Layout((2, 2, 2), ("dp", "sp", "mp"))
>>> layout_tuple = (layout("dp", "sp"), layout("sp", "mp"))
>>> from mindspore import ops
>>> matmul = ops.MatMul()
>>> print(matmul.shard(layout_tuple))
Prim[MatMul]<in_layout=({'device_matrix': (2, 2, 2), 'tensor_map': (2, 1)},
{'device_matrix': (2, 2, 2), 'tensor_map': (1, 0)})>
>>> # using layout with None
>>> from mindspore import Layout
>>> layout = Layout((2, 2, 2), ("dp", "sp", "mp"))
>>> layout_tuple = (layout("dp", "sp"), layout("sp", "None")) # "None" means the axis would not be split
>>> from mindspore import ops
>>> matmul = ops.MatMul()
>>> print(matmul.shard(layout_tuple))
Prim[MatMul]<in_layout=({'device_matrix': (2, 2, 2), 'tensor_map': (2, 1)},
{'device_matrix': (2, 2, 2), 'tensor_map': (1, -1)})>
property update_parameter

判断此Primitive是否会更新参数的值。