# 性能调试(GPU) `Linux` `GPU` `模型调优` `中级` `高级` [![查看源文件](../_static/logo_source.png)](https://gitee.com/mindspore/docs/blob/r1.2/tutorials/training/source_zh_cn/advanced_use/performance_profiling_gpu.md) ## 概述 本教程介绍如何在GPU上使用MindSpore Profiler进行性能调试。 ## 操作流程 - 准备训练脚本,并在训练脚本中调用性能调试接口,接着运行训练脚本。 - 启动MindInsight,并通过启动参数指定summary-base-dir目录(summary-base-dir是Profiler所创建目录的父目录),例如训练时Profiler创建的文件夹绝对路径为`/home/user/code/data`,则summary-base-dir设为`/home/user/code`。启动成功后,根据IP和端口访问可视化界面,默认访问地址为 `http://127.0.0.1:8080`。 - 在训练列表找到对应训练,点击性能分析,即可在页面中查看训练性能数据。 > 普通用户在默认情况下无权访问目标设备上的NVIDIA GPU性能计数器。 > > 如果普通用户需要在训练脚本中使用profiler性能统计能力,则需参考以下网址的说明进行权限配置。 > > ## 准备训练脚本 为了收集神经网络的性能数据,需要在训练脚本中添加MindSpore Profiler相关接口。 - `set_context`之后,需要初始化MindSpore `Profiler`对象。 > GPU多卡场景需要在`set_auto_parallel_context`之后初始化`Profiler`对象。 > > GPU场景下初始化Profiler对象时只有output_path参数有效。 - 在训练结束后,调用`Profiler.analyse`停止性能数据收集并生成性能分析结果。 样例代码与Ascend使用方式一致,可以参考: GPU场景可自定义callback方式收集性能,但数据准备阶段、数据下沉模式不支持该方式收集性能数据。 示例如下: ```python class StopAtStep(Callback): def __init__(self, start_step, stop_step): super(StopAtStep, self).__init__() self.start_step = start_step self.stop_step = stop_step self.already_analysed = False def step_begin(self, run_context): cb_params = run_context.original_args() step_num = cb_params.cur_step_num if step_num == self.start_step: self.profiler = Profiler() def step_end(self, run_context): cb_params = run_context.original_args() step_num = cb_params.cur_step_num if step_num == self.stop_step and not self.already_analysed: self.profiler.analyse() self.already_analysed = True def end(self, run_context): if not self.already_analysed: self.profiler.analyse() ``` 以上代码仅供参考,用户可根据所需场景自由实现。 ## 启动MindInsight 启动命令请参考[MindInsight相关命令](https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/mindinsight_commands.html)。 ## 训练性能 用户从训练列表中选择指定的训练,点击性能调试,可以查看该次训练的性能数据(目前GPU场景支持算子耗时统计排名、Timeline、迭代轨迹分析以及数据准备性能分析,其他功能敬请期待)。 ![performance_overall.png](./images/performance_overall.png) 图1:性能数据总览 图1展示了性能数据总览页面,包含了迭代轨迹(Step Trace)、算子性能、数据准备性能和Timeline等组件的数据总体呈现: - 算子性能:统计单算子以及各算子类型的执行时间,进行排序展示;总览页中展示了各算子类型平均执行时间占比的饼状图。 - Timeline:统计了算子以及CUDA activity,在时间轴排列展示;总览页展示了Timeline中执行情况汇总。 - 迭代轨迹:将训练step划分为几个阶段,统计每个阶段的耗时,按时间线进行展示;总览页展示了迭代轨迹图。 - 数据准备性能:统计训练数据准备阶段各阶段的性能情况;总览页中展示了各阶段性能可能存在瓶颈的step数目。 用户可以点击查看详情链接,进入组件页面进行详细分析。 ### 算子性能分析 使用算子性能分析组件可以对MindSpore运行过程中的各个算子的执行时间进行统计展示(包括GPU算子、CUDA内核、HOSTCPU算子)。 ![gpu_op_ui_profiler.png](./images/gpu_op_ui_profiler.png) 图2:算子类别统计分析 图2展示了按算子类别进行统计分析的结果,包含以下内容: - 可以选择饼图/柱状图展示各算子类别的时间占比,每个算子类别的执行时间会统计属于该类别的算子执行时间总和以及平均执行时间。 - 统计前20个平均执行时间最长的算子类别。 图2下半部分展示了算子性能统计表,包含以下内容: - 选择全部:按单个算子的统计结果进行排序展示,展示维度包括算子位置(Device/Host)、算子类型、算子执行时间、算子全名等;默认按算子平均执行时间排序。 - 选择分类:按算子类别的统计结果进行排序展示,展示维度包括算子分类名称、算子类别执行时间、执行频次、执行总时间的比例、平均执行时间。点击每个算子类别,可以进一步查看该类别下所有单个算子的统计信息。 - 搜索:在右侧搜索框中输入字符串,支持对算子名称/类别进行模糊搜索。 ![gpu_activity_profiler.png](./images/gpu_activity_profiler.png) 图3:内核信息分析 图3展示了CUDA activity信息统计,包含以下内容: - 统计图表:展示了各个kernel activity的占比以及算子的耗时信息。 - 内核信息列表:信息列表展示activity的名称、所属算子名称、执行次数、总时间、平均时间等信息。 - 搜索:可以通过name(activity名称)以及`op_full_name`(所属算子名称)进行部分匹配的搜索。 ### Timeline分析 GPU场景下,Timeline分析的使用方法和Ascend场景相同,不同之处是,GPU Timeline展示的是算子信息(包括GPU算子和CPU算子)和CUDA activity的信息。 使用方法可参考: ### 迭代轨迹分析 GPU场景下,迭代轨迹分析的使用方法和Ascend场景相同。(注意:**迭代轨迹暂不支持异构训练场景**) 使用方法可参考: ### 数据准备性能分析 GPU场景下,数据准备性能分析的使用方法和Ascend场景相同。 使用方法可参考: ## 资源利用 资源利用包括CPU利用率分析。 ![resource_visibility_gpu.png](./images/resource_visibility_gpu.png) 图4:资源利用总览 图4展示了资源利用总览页面,展示了CPU利用率的情况。通过点击右上角的`查看详情`按钮可以查看详细信息。 ### CPU利用率分析 GPU场景下,CPU利用率分析的使用方法和Ascend场景相同。 使用方法可参考: ## 注意事项 - PyNative模式下暂不支持性能调试。 - 训练加推理过程暂不支持性能调试,目前支持单独训练或推理的性能调试。