比较与torch.distributed.new_group的功能差异

查看源文件

torch.distributed.new_group

torch.distributed.new_group(
    ranks=None,
    timeout=datetime.timedelta(0, 1800),
    backend=None
)

更多内容详见torch.distributed.new_group

mindspore.communication.create_group

mindspore.communication.create_group(group, rank_ids)

更多内容详见mindspore.communication.create_group

使用方式

PyTorch:该接口传入待构建通信域rank列表,指定backend创建指定的通信域,并返回创建的通信域。

MindSpore:该接口传入group名字,以及待构建通信域rank列表,创建一个以传入的group名字为key的通信域,不返回任何值。