| mindspore.ops.Abs | 无 | 
| mindspore.ops.ACos | 无 | 
| mindspore.ops.Acosh | 无 | 
| mindspore.ops.Add | 无 | 
| mindspore.ops.ApproximateEqual | 无 | 
| mindspore.ops.ArgMaxWithValue | 输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 | 
| mindspore.ops.ArgMinWithValue | 输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 | 
| mindspore.ops.Asin | 无 | 
| mindspore.ops.Asinh | 无 | 
| mindspore.ops.Assign | 无 | 
| mindspore.ops.AssignAdd | 无 | 
| mindspore.ops.AssignSub | 无 | 
| mindspore.ops.Atan | 无 | 
| mindspore.ops.Atan2 | 无 | 
| mindspore.ops.Atanh | 无 | 
| mindspore.ops.AvgPool | 1. 数据格式只支持‘NCHW’;2. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除;
 3. 如果切分H/W:
 1) 当kernel_size <= stride时,输入切片大小需能被stride整除;
 2) 不支持kernel_size > stride;
 4. 在auto_parallel模式下,不支持双递归算法。
 | 
| mindspore.ops.BatchMatMul | 不支持transpose_a=True | 
| mindspore.ops.BatchNorm | 不支持GPU | 
| mindspore.ops.BesselI0e | 无 | 
| mindspore.ops.BesselI1e | 无 | 
| mindspore.ops.BiasAdd | 无 | 
| mindspore.ops.BoundingBoxEncode | 1. 支持对输入(anchor_box)和输入(groundtruth_box)的第1维进行切分; 2. 输入(anchor_box)和输入(groundtruth_box)的切分策略必须一致
 | 
| mindspore.ops.BroadcastTo | 无 | 
| mindspore.ops.Cast | Auto Parallel和Semi Auto Parallel模式下,配置策略不生效 | 
| mindspore.ops.Ceil | 无 | 
| mindspore.ops.Concat | 输入(input_x)在轴(axis)所对应的维度不能切分,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.Conv2D | 1. 数据格式只支持‘NCHW’;2. 如果涉及相邻节点数据交换,只支持Ascend;
 3. 当group的值不为1时,不支持切分C-in/C-out;
 4. weight的后两维不支持切分;
 5. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除;
 6. valid模式下:如果切分H/W:
 1) 当kernel_size <= stride时(其中kernel_size=dilation * (kernel_size - 1) + 1,下同),输入切片大小需能被stride整除;
 2) 不支持kernel_size > stride;
 7. same/pad模式下:如果切分H/W:
 1) (包含pad的输入总长度 - kernel_size)需能被stride整除;
 2)( 输出总长度*stride - 输入总长度)需能被切分策略整除:
 3)相邻卡间发送接收的数据长度需大于等于0且小于等于切片大小;
 | 
| mindspore.ops.Conv2DBackpropInput | 1. 数据格式只支持‘NCHW’;2. 如果涉及相邻节点数据交换,只支持Ascend;
 3. 当group的值不为1时,不支持切分C-in/C-out;
 4. weight的后两维不支持切分;
 5. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除;
 6. valid模式下:不支持切分H/W维;
 7. same/pad模式下:相邻卡间发送接收的数据长度需大于等于0且小于等于切片大小。
 | 
| mindspore.ops.Cos | 无 | 
| mindspore.ops.Cosh | 无 | 
| mindspore.ops.CropAndResize | 1. 不支持对输入(x)的H/W维和输入(boxes)的第2维进行切分;2. 输入(boxes)和输入(box_index)第1维的切分策略必须一致
 | 
| mindspore.ops.Div | 无 | 
| mindspore.ops.DivNoNan | 无 | 
| mindspore.ops.Dropout | 无 | 
| mindspore.ops.DropoutDoMask | 需和DropoutGenMask联合使用 | 
| mindspore.ops.DropoutGenMask | 需和DropoutDoMask联合使用,不支持配置切分策略 | 
| mindspore.ops.Elu | 无 | 
| mindspore.ops.EmbeddingLookup | 同Gather | 
| mindspore.ops.Equal | 无 | 
| mindspore.ops.Erf | 无 | 
| mindspore.ops.Erfc | 无 | 
| mindspore.ops.Exp | 无 | 
| mindspore.ops.ExpandDims | 无 | 
| mindspore.ops.Expm1 | 无 | 
| mindspore.ops.Floor | 无 | 
| mindspore.ops.FloorDiv | 无 | 
| mindspore.ops.FloorMod | 无 | 
| mindspore.ops.Gather | 仅支持1维和2维的input_params,并且input_params的最后一维要32字节对齐(出于性能考虑);不支持标量input_indices;参数在轴(axis)所在维度切分时,不支持重复计算;不支持input_indices和input_params同时进行切分;在均匀切分,axis=0且参数在轴(axis)所在维度切分时,支持配置输出切分策略,合法的输出切分策略为(index_strategy, param_strategy[1:]) 或 ((index_strategy[0]*param_strategy[0], index_strategy[1:]), param_strategy[1:]) | 
| mindspore.ops.GatherD | dim所对应的维度不能切分;在auto_parallel模式下,不支持双递归算法。 | 
| mindspore.ops.GatherNd | 第一个输入不能切分,第二个输入的最后一维不能切分;在auto_parallel模式下,不支持双递归算法。 | 
| mindspore.ops.GeLU | 无 | 
| mindspore.ops.Greater | 无 | 
| mindspore.ops.GreaterEqual | 无 | 
| mindspore.ops.Inv | 无 | 
| mindspore.ops.IOU | 支持对输入(anchor_boxes)和输入(gt_boxes)的第1维切分 | 
| mindspore.ops.L2Normalize | 输入(input_x)在轴(axis)对应的维度不能切,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.Less | 无 | 
| mindspore.ops.LessEqual | 无 | 
| mindspore.ops.LogicalAnd | 无 | 
| mindspore.ops.LogicalNot | 无 | 
| mindspore.ops.LogicalOr | 无 | 
| mindspore.ops.Log | 无 | 
| mindspore.ops.Log1p | 无 | 
| mindspore.ops.LogSoftmax | 输入(logits)在轴(axis)对应的维度不可切分,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.MatMul | 1. 不支持transpose_a=True;2. 当
 transpose_b=True时,输入的切分策略需是 ((A, B), (C, B)) 的形式3. 当
 transpose_b=False时,输入的切分策略需是 ((A, B), (B, C)) 的形式;4. 支持设置输出切分策略,合法的输出切分策略为 ((A, C),) 或 ((A * B, C),) 。
 | 
| mindspore.ops.Maximum | 无 | 
| mindspore.ops.MaxPool | 1. 数据格式只支持‘NCHW’;2. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除;
 3. 如果切分H/W:
 1) 当kernel_size <= stride时,输入切片大小需能被stride整除;
 2) 不支持kernel_size > stride;
 4. 在auto_parallel模式下,不支持双递归算法。
 | 
| mindspore.ops.Minimum | 无 | 
| mindspore.ops.Mod | 无 | 
| mindspore.ops.Mul | 无 | 
| mindspore.ops.Neg | 无 | 
| mindspore.ops.NotEqual | 无 | 
| mindspore.ops.OneHot | 仅支持输入(indices)是1维的Tensor,切分策略要配置输出的切分策略,以及第1和第2个输入的切分策略 | 
| mindspore.ops.OnesLike | 无 | 
| mindspore.ops.Pow | 无 | 
| mindspore.ops.PReLU | weight的shape在非[1]的情况下,输入(input_x)的Channel维要和weight的切分方式一致 | 
| mindspore.ops.RandomChoiceWithMask | 1. 不支持切分,仅支持全1策略; 2. 分布式逻辑仅支持GPU平台
 | 
| mindspore.ops.RealDiv | 无 | 
| mindspore.ops.Reciprocal | 无 | 
| mindspore.ops.ReduceMax | 输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 | 
| mindspore.ops.ReduceMin | 输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 | 
| mindspore.ops.ReduceSum | 无 | 
| mindspore.ops.ReduceMean | 无 | 
| mindspore.ops.ReLU | 无 | 
| mindspore.ops.ReLU6 | 无 | 
| mindspore.ops.ReLUV2 | 无 | 
| mindspore.ops.Reshape | 不支持配置切分策略,并且,在自动并行模式下,当reshape算子后接有多个算子,不允许对这些算子配置不同的切分策略 | 
| mindspore.ops.ResizeBilinear | 在GPU平台下,不支持H/W维切分;在Ascend平台下,不支持H维切分,且W维的输出shape要能被切分数整除。 | 
| mindspore.ops.ResizeNearestNeighbor | 在align_corners=True时只支持切分第一维和第二维 | 
| mindspore.ops.ROIAlign | 不支持对输入(features)的H/W维和输入(rois)的第2维进行切分 | 
| mindspore.ops.Round | 无 | 
| mindspore.ops.Rsqrt | 无 | 
| mindspore.ops.ScatterUpdate | 第一个输入的第一维不能切分,第二个输入不能切分,第三个输入的前n维(n为第二个输入的维度)不能切分;在auto_parallel模式下,不支持双递归算法。 | 
| mindspore.ops.Select | 在auto_parallel模式下,不支持双递归算法。 | 
| mindspore.ops.Sigmoid | 无 | 
| mindspore.ops.SigmoidCrossEntropyWithLogits | 无 | 
| mindspore.ops.Sign | 无 | 
| mindspore.ops.Sin | 无 | 
| mindspore.ops.Sinh | 无 | 
| mindspore.ops.Softmax | 输入(logits)在轴(axis)对应的维度不可切分,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.SoftmaxCrossEntropyWithLogits | 输入(logits、labels)的最后一维不能切分;有两个输出,正向的loss只支持取[0] | 
| mindspore.ops.Softplus | 无 | 
| mindspore.ops.Softsign | 无 | 
| mindspore.ops.SparseGatherV2 | 同Gather | 
| mindspore.ops.Split | 轴(axis)所对应的维度不能切分,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.Sqrt | 无 | 
| mindspore.ops.Square | 无 | 
| mindspore.ops.Squeeze | 无 | 
| mindspore.ops.Stack | 无 | 
| mindspore.ops.StridedSlice | 仅支持值为全0的mask;需要切分的维度必须全部提取;输入在strides不为1对应的维度不支持切分 | 
| mindspore.ops.Slice | 需要切分的维度必须全部提取 | 
| mindspore.ops.Sub | 无 | 
| mindspore.ops.Tan | 无 | 
| mindspore.ops.Tanh | 无 | 
| mindspore.ops.Tile | 仅支持对multiples配置切分策略 | 
| mindspore.ops.TopK | 最后一维不支持切分,切分后,在数学逻辑上和单机不等价 | 
| mindspore.ops.Transpose | 无 | 
| mindspore.ops.Unique | 只支持重复计算的策略(1,) | 
| mindspore.ops.UnsortedSegmentSum | 输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致 | 
| mindspore.ops.UnsortedSegmentMin | 输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致。注意:在segment id为空时,输出向量的对应位置会填充为输入类型的最大值。需要用户进行掩码处理,将最大值转换成0。否则容易造成数值溢出,导致通信算子上溢错误,从而引发Run Task Error | 
| mindspore.ops.UnsortedSegmentMax | 输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致。注意:在segment id为空时,输出向量的对应位置会填充为输入类型的最小值。需要用户进行掩码处理,将最小值转换成0。否则容易造成数值溢出,导致通信算子上溢错误,从而引发Run Task Error | 
| mindspore.ops.ZerosLike | 无 |