本周Parallel SIG分享会——MindSpore的并行策略详解,尽在周六晚!
本周Parallel SIG分享会——MindSpore的并行策略详解,尽在周六晚!

Parallel SIG
近年来,神经网络模型的规模持续增长,从千亿突破至万亿,甚至朝着十万亿乃至百万亿的方向发展。如此大规模的参数量,单块加速设备的算力和存储能力完全无法满足需求,因此利用分布式加速大模型的训练和推理是一种趋势。
而大模型的训练往往需要成百上千张加速芯片来完成任务,比如华为使用上千张Ascend 910训练PanGu-alpha。**那如何利用计算中心成百上千张AI加速芯片高效地进行训练,并行是其中的核心技术。**并行技术提升AI加速芯片的利用率,让大模型的训练时间被约束在可接受范围内。
并行策略作为MindSpore的关键特性,被业界广泛使用。此次Parallel SIG(special interest groups)会议,我们将一起讨论与MindSpore并行策略相关的课题。
会议详情
01 会议时间:
2022年**3月19日(周六)**19:00-21:00
02 会议链接:
https://meeting.tencent.com/dm/3uSnNqriRHZ4
03 会议ID:245-887-799
议题一
MindSpore并行策略之sharding propagation
01 时间
19:00-19:40
02 演讲人
达叔,MindSpore并行组核心开发成员
议题二
MindSpore算子级并行用法
01 时间
19:40-20:20
02 演讲人
大总管,MindSpore并行组核心开发成员
议题三
基于MindSpore训练MoE
01 时间
20:20-21:00
02 演讲人
王博,MindSpore并行组核心开发成员
加入Parallel SIG
扫描二维码


MindSpore官方资料
官方QQ群 : 486831414
论坛:https://bbs.huaweicloud.com/forum/forum-1076-1.html
Gitee : https : //gitee.com/mindspore/mindspore