mindspore.communication.comm_func.broadcast
- mindspore.communication.comm_func.broadcast(tensor, src=0, group=GlobalComm.WORLD_COMM_GROUP)[源代码]
对输入数据整组广播。
说明
集合中的所有进程的Tensor的shape和数据格式必须相同。
当前支持PyNative模式,不支持Graph模式。
- 参数:
tensor (Tensor) - 输入待广播的Tensor,shape为 \((x_1, x_2, ..., x_R)\) 。
src (int, 可选) - 表示发送源的进程编号。只有该进程会广播张量。默认值:
0。group (str, 可选) - 工作的通信组。默认值:
GlobalComm.WORLD_COMM_GROUP(即Ascend平台为"hccl_world_group",GPU平台为"nccl_world_group")。
- 返回:
Tensor,Tensor的shape与输入相同,即 \((x_1, x_2, ..., x_R)\) 。
- 异常:
TypeError - src 不是int,或 group 不是str。
RuntimeError - 目标设备无效、后端无效,或分布式初始化失败。
- 支持平台:
AscendGPU
样例:
>>> import numpy as np >>> import mindspore as ms >>> import mindspore.communication as comm >>> >>> # Launch 2 processes. >>> >>> comm.init() >>> data = ms.Tensor(np.arange(8).reshape([2, 4]).astype(np.float32)) >>> out = comm.comm_func.broadcast(tensor=data, src=0) >>> print(out) [[0. 1. 2. 3.] [4. 5. 6. 7.]]