MindSpore

整体介绍

  • MindSpore总体架构
  • MindSpore API概述

快速入门

  • 实现简单线性函数拟合
  • 实现一个图片分类应用
  • 手把手安装和体验

基本概念

  • dtype
  • Tensor
  • 算子
  • Cell

Numpy

  • MindSpore NumPy函数

运行管理

  • 配置运行信息

数据加载和处理

  • 快速入门数据加载和处理
  • 数据集加载
  • 数据处理
  • 数据处理高级用法

网络构建

  • 网络参数的初始化
  • 网络参数的更新
  • 模型层
  • 损失函数
  • 优化算法
  • 构建自定义网络
  • 常用网络组件

模型训练

  • 运行方式
  • Callback机制
  • 保存模型
  • 加载模型用于推理或迁移学习
  • 模型训练高级用法

推理

  • 推理模型总览
  • Ascend 910 AI处理器上推理
  • Ascend 310 AI处理器上推理
  • GPU上推理
  • CPU上推理

分布式并行

  • 分布式并行训练总览
  • 分布式并行训练 (Ascend)
  • 分布式并行训练 (GPU)
  • 应用流水线并行
  • 应用Host&Device混合训练
  • 使用Parameter Server训练
  • 保存和加载模型(HyBrid Parallel模式)
  • 分布式推理
  • 分布式并行接口说明

功能调试

  • 使用PyNative模式调试
  • 使用Dump功能在Graph模式调试
  • 自定义调试信息
  • 训练时验证模型
  • 算子增量编译

精度调优

  • 精度调优思路和方法

性能优化

  • 优化数据处理
  • 使能混合精度
  • 使能图算融合
  • 应用梯度累积算法
  • 应用感知量化训练
  • 应用训练后量化

应用实践

  • 机器视觉
  • 自然语言处理
  • 高性能计算
  • 在云上使用MindSpore
MindSpore
  • »
  • Search


© Copyright MindSpore.

Built with Sphinx using a theme provided by Read the Docs.