# 比较与torch.distributed.init_process_group的功能差异 [![查看源文件](https://gitee.com/mindspore/docs/raw/r1.6/resource/_static/logo_source.png)](https://gitee.com/mindspore/docs/blob/r1.6/docs/mindspore/migration_guide/source_zh_cn/api_mapping/pytorch_diff/init.md) ## torch.distributed.init_process_group ```python torch.distributed.init_process_group( backend, init_method=None, timeout=datetime.timedelta(0, 1800), world_size=-1, rank=-1, store=None, group_name='' ) ``` 更多内容详见[torch.distributed.init_process_group](https://pytorch.org/docs/1.5.0/distributed.html#torch.distributed.init_process_group)。 ## mindspore.communication.init ```python mindspore.communication.init(backend_name=None) ``` 更多内容详见[mindspore.communication.init](https://mindspore.cn/docs/api/zh-CN/r1.6/api_python/mindspore.communication.html#mindspore.communication.init)。 ## 使用方式 PyTorch:该接口支持的集合通信有3种:MPI、Gloo、NCCL。该接口在初始化`backend`的同时,还提供`world_size`、`rank`和`timeout`等内容的配置。 MindSpore:该接口当前仅支持2种集合通信:HCCL、NCCL。而`world_size`、`rank`和`timeout`等内容的配置并不在该接口中设置,调用该接口之前,需设置相应的环境变量。