代码
本周Parallel SIG分享会——MindSpore的并行策略详解,尽在周六晚!

本周Parallel SIG分享会——MindSpore的并行策略详解,尽在周六晚!

本周Parallel SIG分享会——MindSpore的并行策略详解,尽在周六晚!

Parallel SIG

近年来,神经网络模型的规模持续增长,从千亿突破至万亿,甚至朝着十万亿乃至百万亿的方向发展。如此大规模的参数量,单块加速设备的算力和存储能力完全无法满足需求,因此利用分布式加速大模型的训练和推理是一种趋势。

而大模型的训练往往需要成百上千张加速芯片来完成任务,比如华为使用上千张Ascend 910训练PanGu-alpha。**那如何利用计算中心成百上千张AI加速芯片高效地进行训练,并行是其中的核心技术。**并行技术提升AI加速芯片的利用率,让大模型的训练时间被约束在可接受范围内。

并行策略作为MindSpore的关键特性,被业界广泛使用。此次Parallel SIG(special interest groups)会议,我们将一起讨论与MindSpore并行策略相关的课题。

会议详情

01 会议时间

2022年**3月19日(周六)**19:00-21:00

02 会议链接

https://meeting.tencent.com/dm/3uSnNqriRHZ4

03 会议ID245-887-799

议题一

MindSpore并行策略之sharding propagation

01 时间

19:00-19:40

02 演讲人

达叔,MindSpore并行组核心开发成员

议题二

MindSpore算子级并行用法

01 时间

19:40-20:20

02 演讲人

大总管,MindSpore并行组核心开发成员

议题三

基于MindSpore训练MoE

01 时间

20:20-21:00

02 演讲人

王博,MindSpore并行组核心开发成员

加入Parallel SIG

扫描二维码

MindSpore官方资料

官方QQ群 : 486831414

官网https://www.mindspore.cn/

论坛https://bbs.huaweicloud.com/forum/forum-1076-1.html

Gitee : https : //gitee.com/mindspore/mindspore

GitHub : https://github.com/mindspore-ai/mindspore