分布式并行

查看源文件

概述

在深度学习中,当数据集和参数量的规模越来越大,训练所需的时间和硬件资源会随之增加,最后会变成制约训练的瓶颈。分布式并行训练,可以降低对内存、计算性能等硬件的需求,是进行训练的重要优化手段。

MindSpore提供了分布式并行训练的功能,它支持了包括数据并行和自动并行在内的多种并行模式。

分布式并行配置

MindSpore的分布式并行配置通过auto_parallel_context来进行集中管理,用户可根据自身需求和实际情况来进行个性化的配置。这些配置可分为三大类:

  • 通用配置:对数据并行、自动并行以及混合并行均起作用的配置,如:device_numglobal_rank等。

  • 自动并行配置:仅在自动并行模式下起作用的配置,如:auto_parallel_search_modegradient_fp32_sync等。

用户可利用context.set_auto_parallel_context配置上述参数,同时可通过context.get_auto_parallel_context来获取上述参数。

通用配置

device_num

device_num表示可用的机器数,其值为int型,默认值是0,且必须在1~4096范围内。若用户不配置,Model接口内部则会通过get_group_size方法获取,若用户进行了配置,则遵循用户的配置。这个配置可以在用户不使用Model接口的情况下,手动传递device_num

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(device_num=8)
context.get_auto_parallel_context("device_num")

global_rank

global_rank表示当前卡的逻辑序号,其值为int型,默认值是0,且必须在0~4095范围内。若用户不配置,Model接口内部则会通过get_rank方法获取,若用户进行了配置,则遵循用户的配置。这个配置可以在用户不使用Model接口的情况下,手动传递global_rank

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(global_rank=0)
context.get_auto_parallel_context("global_rank")

gradients_mean

gradients_mean表示在反向梯度进行聚合时,是否进行平均操作。其值为bool型,默认为False,即梯度聚合仅进行AllReduce的SUM操作,不做平均操作。gradients_mean会影响网络的收敛,不同场景,gradients_mean的设置可能不同。因此,MindSpore提供这个接口让用户根据实际情况来配置。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(gradients_mean=False)
context.get_auto_parallel_context("gradients_mean")

parallel_mode

parallel_mode表示并行模式,其值为字符串类型。用户可选择的模式有:

  • stand_alone:单机模式。

  • data_parallel:数据并行模式。

  • hybrid_parallel:混合并行模式。

  • semi_auto_parallel:半自动并行模式,即用户可通过shard方法给算子配置切分策略,若不配置策略,则默认是数据并行策略。

  • auto_parallel:自动并行模式,即框架会自动建立代价模型,为用户选择最优的切分策略。

其中auto_paralleldata_parallel在MindSpore教程中有完整样例:

https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/distributed_training_tutorials.html

代码样例如下:

from mindspore import context
import mindspore.ops as ops

context.set_auto_parallel_context(parallel_mode="semi_auto_parallel")
mul = ops.Mul().shard(((2, 1), (2, 1)))
context.get_auto_parallel_context("parallel_mode")

all_reduce_fusion_config

all_reduce_fusion_config可以让用户自定义梯度AllReduce融合切分策略。出于减少资源消耗及算子执行间隙的目的,框架默认将所有反向梯度聚合的AllReduce融合成一个算子运算,但当模型较大时,这会造成迭代拖尾耗时增加。用户可结合具体网络,通过设置该参数,手动调优找到性能最好的融合切分策略。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(all_reduce_fusion_config=[20, 35])
context.get_auto_parallel_context("all_reduce_fusion_config")

样例中,all_reduce_fusion_config的值为[20, 35],将前20个AllReduce融合成1个,第20~35个AllReduce融合成1个,剩下的AllReduce融合成1个。

enable_parallel_optimizer

enable_parallel_optimizer是一个开发中特性,参数默认值是False。数据并行时参数更新部分在各卡间存在冗余计算,优化器并行通过将优化器的计算量分散到各个卡上,在大规模网络上(比如Bert、GPT)可以有效减少内存消耗并提升网络性能。

data_parallel模式下使能优化器并行,框架会将需要更新的参数进行分组到不同卡上,各自更新后再通过Broadcast算子在集群间做权重共享。需要注意的是参数量应当大于机器数,当前只支持LambAdamWeightDecay优化器。

auto_parallel或者semi_auto_parallel模式下使能优化器并行,如果经过策略切分后的参数在机器间存在重复切片,并且shape的最高维可以被卡数整除,框架会以最小切片的方式保存参数并在优化器中更新。该模式下支持所有优化器。

无论是哪种模式,优化器并行不会影响原有正反向网络的计算图,只会影响参数更新的计算量和计算逻辑。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(enable_parallel_optimizer=True)
context.get_auto_parallel_context("enable_parallel_optimizer")

parameter_broadcast

parameter_broadcast将数据并行参数在0号卡上的权值广播到其他卡上,达到同步初始化权重的目的。参数默认值是False,当前仅支持图模式。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(parameter_broadcast=True)
context.get_auto_parallel_context("parameter_broadcast")

自动并行配置

gradient_fp32_sync

gradient_fp32_sync表示梯度是否以float32类型进行聚合,其值为bool类型,默认为True,即梯度以float32类型进行聚合。由于AscendAI处理器的特殊构造,float32类型的数据进行聚合的速度要高于float16,但可能会影响精度。因此,MindSpore提供gradient_fp32_sync接口,让用户自己根据实际情况去进行取舍。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(gradient_fp32_sync=False)
context.get_auto_parallel_context("gradient_fp32_sync")

auto_parallel_search_mode

MindSpore提供了dynamic_programmingrecursive_programming两种搜索策略的算法,默认是dynamic_programmingdynamic_programming能够搜索出代价模型刻画的最优策略,但在搜索巨大网络模型的并行策略时耗时较长;而recursive_programming能瞬间搜索出并行策略,同时在已验证的常用网络中搜索出来的策略是最优策略,但在未经验证的某些特殊网络中可能找到次优策略。为此,MindSpore提供了参数,让用户自由选择搜索算法。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(auto_parallel_search_mode="recursive_programming")
context.get_auto_parallel_context("auto_parallel_search_mode")

strategy_ckpt_load_file

指定加载路径,加载自动并行中所有带有权重的算子的切分信息。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(strategy_ckpt_load_file="./")
context.get_auto_parallel_context("strategy_ckpt_load_file")

strategy_ckpt_save_file

指定存储路径,存储自动并行中所有带有权重的算子的切分信息。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(strategy_ckpt_save_file="./")
context.get_auto_parallel_context("strategy_ckpt_save_file")

full_batch

full_batch可以让用户决定数据集是否以全量导入。默认是False。即数据集以数据并行的方式导入。在特殊场景下,数据集全量导入的性能要优于数据并行方式导入,比如WideDeep网络的非均匀切分场景。因此,MindSpore提供full_batch可配置接口。

代码样例如下:

from mindspore import context

context.set_auto_parallel_context(full_batch=False)
context.get_auto_parallel_context("full_batch")

pipeline_stages

pipeline_stages是用来设置pipeline并行的stage信息。用来表明机器在pipeline并行下是如何分布的。目前pipeline并行仍在开发中。

代码样例如下:

from mindspore import context
context.set_auto_parallel_context(pipeline_stage=4)
context.get_auto_parallel_context("pipeline_stage")

grad_accumulation_step

grad_accumulation_step指梯度累积步数。具体用法请参考指导教程

代码样例如下:

from mindspore import context
context.set_auto_parallel_context(grad_accumulation_step=4)
context.get_auto_parallel_context("grad_accumulation_step")

分布式通信接口

mindspore.communication.management中封装了分布式并行用到的集合通信接口,方便用户配置分布式信息。

init

使能MindSpore通信,并完成分布式训练初始化操作。init要在context.set_context之后调用。用户可给init传入通信后端信息,init会根据不同的后端来进行不同初始化。

  • hccl:全名为Huawei Collective Communication Library。用于Ascend处理器平台。

  • nccl:全名为NVIDIA Collective Communication Library。用于GPU处理器平台。

若用户不配置通信后端,MindSpore会根据context中的device_target信息进行自动配置。

代码样例如下:

from mindspore import context
from mindspore.communication.management import init

context.set_context(device_target='GPU')
init()

get_group_size

get_group_size可让用户获取集群数量。在用get_group_size接口之前,要先调用init

代码样例如下:

from mindspore import context
from mindspore.communication.management import init, get_group_size

context.set_context(device_target='GPU')
init()
group_size = get_group_size()

get_rank

get_rank可让用户获取当前设备在集群中的ID。在用get_rank接口之前,要先调用init

代码样例如下:

from mindspore import context
from mindspore.communication.management import init, get_rank

context.set_context(device_target='GPU')
init()
rank_id = get_rank()

分布式属性配置

cross_batch

在特定场景下,data_parallel的计算逻辑和stand_alone是不一样的,auto_parallel在任何场景下都是和stand_alone的计算逻辑保持一致。而data_parallel的收敛效果可能更好,因此MindSpore提供了cross_batch这个参数,可以使auto_parallel的计算逻辑和data_parallel保持一致,用户可通过add_prim_attr方法进行配置,默认值是False。

代码样例如下:

import mindspore.ops as ops

mul = ops.Mul().add_prim_attr("cross_batch", True)

fusion

出于性能考虑,MindSpore提供了AllGatherAllReduce算子的融合功能,fusion值相同的同类算子(算子类型以及通信域相同)会融合在一起,fusion的值必须大于等于0,且当fusion值为0时,表示不融合。目前只支持Ascend后端。

fusion属性的配置有两种方式,如果是显式调用通信算子可以通过add_prim_attr方法直接为通信算子配置属性。代码样例如下:

import mindspore.ops as ops

allreduce1 = ops.AllReduce().add_prim_attr("fusion", 1)
allreduce2 = ops.AllReduce().add_prim_attr("fusion", 1)

样例中的allreduce1allreduce2将在执行时被融合为一个算子。

AUTO_PARALLELSEMI_AUTO_PARALLEL模式下自动插入的用于参数或者梯度聚合的通信算子,需要通过对Cell或者Parameter设置属性的方式间接添加。例如:

import mindspore.nn as nn
from mindspore import Tensor, Parameter
from mindspore import context

class Net(nn.Cell):
    """Net definition"""
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = ops.MatMul()
        self.fc2 = ops.MatMul()
        self.p1 = Parameter(Tensor(np.ones([48, 64]).astype(np.float32)), name="weight1")
        self.p1.comm_fusion = 2
        self.p2 = Parameter(Tensor(np.ones([64, 16]).astype(np.float32)), name="weight2")

    def construct(self, x, y):
        x = self.fc1(x, self.p1)
        x = self.fc2(x, self.p2)
        return x - y

context.set_context(mode=context.GRAPH_MODE)
context.set_auto_parallel_context(parallel_mode="auto_parallel", device_num=8)
net = Net().set_comm_fusion(2)

样例中对参数Net.p1设置comm_fusion为2,表示作用于该参数的通信算子fusion属性为2。当需要批量对参数进行操作时,可以调用set_comm_fusion方法将网络Net中包含的全部参数设置comm_fusion属性。如果多次调用的话,属性值会被覆盖。

当参数被共享时,需要保证连接参数的多个算子混合精度一致,否则融合会失败。

layerwise_parallel

HYBRID_PARALLEL模式下用户需要手动切分模型,其中对于模型并行的参数用户需要手动打上标记layerwise_parallel,框架会根据此标记为模型并行参数过滤掉梯度聚合操作。

代码样例如下:

imoprt numpy as np
from mindspore import Parameter, Tensor

x = Parameter(Tensor(np.ones([2, 2])), layerwise_parallel=True)

数据并行

数据并行是对数据进行切分的并行模式,一般按照batch维度切分,将数据分配到各个计算单元(worker)中,进行模型计算。在数据并行模式下,数据集要以数据并行的方式导入,并且parallel_mode要设置为data_parallel

具体用例请参考MindSpore分布式并行训练教程:

https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/distributed_training_tutorials.html

自动并行

自动并行是融合了数据并行、模型并行及混合并行的一种分布式并行模式,可以自动建立代价模型,为用户选择一种并行模式。其中,代价模型指基于内存的计算开销和通信开销对训练时间建模,并设计高效的算法找到训练时间较短的并行策略。在自动并行模式下,parallel_mode要设置为auto_parallel

具体用例请参考MindSpore分布式并行训练教程:

https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/distributed_training_tutorials.html