mindspore.communication.init ============================ .. image:: https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/website-images/br_base/resource/_static/logo_source.svg :target: https://gitee.com/mindspore/mindspore/blob/br_base/docs/api/api_python/communication/mindspore.communication.init.rst :alt: 查看源文件 .. py:function:: mindspore.communication.init(backend_name=None) 初始化通信服务需要的分布式后端,例如 `HCCL` 、 `NCCL` 或 `MCCL` 服务。通常在分布式并行场景下使用,并在使用通信服务前设置。 .. note:: - HCCL的全称是华为集合通信库(Huawei Collective Communication Library)。 - NCCL的全称是英伟达集合通信库(NVIDIA Collective Communication Library)。 - MCCL的全称是MindSpore集合通信库(MindSpore Collective Communication Library)。 - 在Ascend硬件平台下,``init()`` 接口的设置需要在创建Tensor和Parameter之前,以及所有算子和网络的实例化和运行之前。 参数: - **backend_name** (str) - 分布式后端的名称,可选 ``"hccl"`` 、 ``"nccl"`` 或者 ``"mccl"`` 。在Ascend硬件平台下,应使用 ``"hccl"`` ,在GPU硬件平台下,应使用 ``"nccl"`` ,在CPU硬件平台下,应使用 ``"mccl"`` 。如果未设置则根据硬件平台类型(device_target)自动进行推断,默认值: ``None`` 。 异常: - **TypeError** - 参数 `backend_name` 不是字符串。 - **RuntimeError** - 1)硬件设备类型无效;2)后端服务无效;3)分布式计算初始化失败;4)后端是HCCL的情况下,未设置环境变量 `RANK_ID` 或 `MINDSPORE_HCCL_CONFIG_PATH` 的情况下初始化HCCL服务。 样例: .. note:: .. include:: ../ops/mindspore.ops.comm_note.txt