使用工具迁移第三方框架脚本

Linux Ascend 模型开发 初级

概述

MindConverter是一款用于将PyTorch、TensorFlow脚本或者ONNX文件转换到MindSpore脚本的工具。结合转换报告的信息,用户只需对转换后的脚本进行微小的改动,即可快速将PyTorch、TensorFlow框架的模型脚本或者ONNX文件迁移到MindSpore。

安装

此工具为MindInsight的子模块,安装MindInsight后,即可使用MindConverter,MindInsight安装请参考该安装文档

用法

MindConverter提供命令行(Command-line interface, CLI)的使用方式,命令如下。

usage: mindconverter [-h] [--version] [--in_file IN_FILE]
                     [--model_file MODEL_FILE] [--shape SHAPE]
                     [--input_nodes INPUT_NODES] [--output_nodes OUTPUT_NODES]
                     [--output OUTPUT] [--report REPORT]
                     [--project_path PROJECT_PATH]

optional arguments:
  -h, --help            show this help message and exit
  --version             show program version number and exit
  --in_file IN_FILE     Specify path for script file to use AST schema to do
                        script conversation.
  --model_file MODEL_FILE
                        PyTorch(.pth), TensorFlow(.pb) or ONNX(.onnx) model
                        file path is expected to do script generation based on
                        graph schema. When `--in_file` and `--model_file` are
                        both provided, use AST schema as default.
  --shape SHAPE         Optional, expected input tensor shape of
                        `--model_file`. It is required when use graph based
                        schema. Usage: --shape 1,3,244,244
  --input_nodes INPUT_NODES
                        Optional, input node(s) name of `--model_file`. It is
                        required when use TensorFlow model. Usage:
                        --input_nodes input_1:0,input_2:0
  --output_nodes OUTPUT_NODES
                        Optional, output node(s) name of `--model_file`. It is
                        required when use TensorFlow model. Usage:
                        --output_nodes output_1:0,output_2:0
  --output OUTPUT       Optional, specify path for converted script file
                        directory. Default output directory is `output` folder
                        in the current working directory.
  --report REPORT       Optional, specify report directory. Default is
                        converted script directory.
  --project_path PROJECT_PATH
                        Optional, PyTorch scripts project path. If PyTorch
                        project is not in PYTHONPATH, please assign
                        `--project_path` when use graph based schema. Usage:
                        --project_path ~/script_file/

PyTorch模型脚本迁移

MindConverter提供两种PyTorch模型脚本迁移方案:

  1. 基于抽象语法树(Abstract syntax tree, AST)的脚本转换:指定--in_file的值,将使用基于AST的脚本转换方案;

  2. 基于图结构的脚本生成:指定--model_file--shape将使用基于图结构的脚本生成方案。

若同时指定了--in_file--model_file将默认使用AST方案进行脚本迁移。

当使用基于图结构的脚本生成方案时,要求必须指定--shape的值;当使用基于AST的脚本转换方案时,--shape会被忽略。

其中,--output--report参数可省略。若省略,MindConverter将在当前工作目录(Working directory)下自动创建output目录,将生成的脚本、转换报告、权重文件、权重映射表输出至该目录。

另外,当使用基于图结构的脚本生成方案时,请确保原PyTorch项目已在Python包搜索路径中,可通过CLI进入Python交互式命令行,通过import的方式判断是否已满足;若未加入,可通过--project_path命令手动将项目路径传入,以确保MindConverter可引用到原PyTorch脚本。

假设用户项目目录为/home/user/project/model_training,用户可通过如下命令手动将项目目录添加至包搜索路径中:export PYTHONPATH=/home/user/project/model_training:$PYTHONPATH 此处MindConverter需要引用原PyTorch脚本,是因为PyTorch模型反向序列化过程中会引用原脚本。

TensorFlow模型脚本迁移

MindConverter提供基于图结构的脚本生成方案:指定--model_file--shape--input_nodes--output_nodes进行脚本迁移。

AST方案不支持TensorFlow模型脚本迁移,TensorFlow脚本迁移仅支持基于图结构的方案。

ONNX模型文件迁移

MindConverter提供基于图结构的脚本生成方案:指定--model_file--shape--input_nodes--output_nodes进行脚本迁移。

AST方案不支持ONNX模型文件迁移,ONNX文件迁移仅支持基于图结构的方案。

使用场景

MindConverter提供两种技术方案,以应对不同脚本迁移场景:

  1. 用户希望迁移后脚本保持原脚本结构(包括变量、函数、类命名等与原脚本保持一致);

  2. 用户希望迁移后脚本保持较高的转换率,尽量少的修改、甚至不需要修改,即可实现迁移后模型脚本的执行。

对于上述第一种场景,推荐用户使用基于AST的方案进行转换(AST方案仅支持PyTorch脚本转换),AST方案通过对原PyTorch脚本的抽象语法树进行解析、编辑,将其替换为MindSpore的抽象语法树,再利用抽象语法树生成代码。理论上,AST方案支持任意模型脚本迁移,但语法树解析操作受原脚本用户编码风格影响,可能导致同一模型的不同脚本最终的转换率存在一定差异。

对于上述第二种场景,推荐用户使用基于图结构的脚本生成方案,计算图作为一种标准的模型描述语言,可以消除用户代码风格多样导致的脚本转换率不稳定的问题。在已支持算子的情况下,该方案可提供优于AST方案的转换率。

目前已基于计算机视觉领域典型模型对图结构的脚本转换方案进行测试。

  1. 基于图结构的脚本生成方案,目前仅支持单输入、单输出模型,对于多输入模型暂不支持;

  2. 基于图结构的脚本生成方案,由于要加载PyTorch、TensorFlow模型,会导致转换后网络中Dropout算子丢失,需要用户手动补齐;

  3. 基于图结构的脚本生成方案持续优化中。

使用示例

基于AST的脚本转换示例

若用户希望使用基于AST的方案进行脚本迁移,假设原PyTorch脚本路径为/home/user/model.py,希望将脚本输出至/home/user/output,转换报告输出至/home/user/output/report,则脚本转换命令为:

mindconverter --in_file /home/user/model.py \
              --output /home/user/output \
              --report /home/user/output/report

转换报告中,对于未转换的代码行形式为如下,其中x, y指明的是原PyTorch脚本中代码的行、列号。对于未成功转换的算子,可参考MindSporeAPI映射查询功能 手动对代码进行迁移。对于工具无法迁移的算子,会保留原脚本中的代码。

line x:y: [UnConvert] 'operator' didn't convert. ...

转换报告示例如下所示:

 [Start Convert]
 [Insert] 'import mindspore.ops.operations as P' is inserted to the converted file.
 line 1:0: [Convert] 'import torch' is converted to 'import mindspore'.
 ...
 line 157:23: [UnConvert] 'nn.AdaptiveAvgPool2d' didn't convert. Maybe could convert to mindspore.ops.operations.ReduceMean.
 ...
 [Convert Over]

对于部分未成功转换的算子,报告中会提供修改建议,如line 157:23,MindConverter建议将torch.nn.AdaptiveAvgPool2d替换为mindspore.ops.operations.ReduceMean

基于图结构的脚本生成示例

PyTorch模型脚本生成示例

若用户已将PyTorch模型保存为.pth格式,假设模型绝对路径为/home/user/model.pth,该模型期望的输入shape为(1, 3, 224, 224),原PyTorch脚本位于/home/user/project/model_training,希望将脚本、权重文件和权重映射表输出至/home/user/output,转换报告输出至/home/user/output/report,则脚本生成命令为:

mindconverter --model_file /home/user/model.pth --shape 1,3,224,224 \
              --output /home/user/output \
              --report /home/user/output/report \
              --project_path /home/user/project/model_training

执行该命令,MindSpore代码文件、权重文件、权重映射表和转换报告生成至相应目录。

基于图结构的脚本生成方案产生的转换报告格式与AST方案相同。然而,由于基于图结构方案属于生成式方法,转换过程中未参考原PyTorch脚本,因此生成的转换报告中涉及的代码行、列号均指生成后脚本。

另外对于未成功转换的算子,在代码中会相应的标识该节点输入、输出Tensor的shape(以input_shape, output_shape标识),便于用户手动修改。以Reshape算子为例(暂不支持Reshape),将生成如下代码:

class Classifier(nn.Cell):

    def __init__(self):
        super(Classifier, self).__init__()
        ...
        self.reshape = onnx.Reshape(input_shape=(1, 1280, 1, 1),
                                    output_shape=(1, 1280))
        ...

    def construct(self, x):
        ...
        # Suppose input of `reshape` is x.
        reshape_output = self.reshape(x)
        ...

通过input_shapeoutput_shape参数,用户可以十分便捷地完成算子替换,替换结果如下:

import mindspore.ops as ops
...

class Classifier(nn.Cell):

    def __init__(self):
        super(Classifier, self).__init__()
        ...
        self.reshape = ops.Reshape(input_shape=(1, 1280, 1, 1),
                                 output_shape=(1, 1280))
        ...

    def construct(self, x):
        ...
        # Suppose input of `reshape` is x.
        reshape_output = self.reshape(x, (1, 1280))
        ...

其中--output--report参数可省略,若省略,该命令将在当前工作目录(Working directory)下自动创建output目录,将生成的脚本、转换报告输出至该目录。

映射表中分别保存算子在MindSpore中的权重信息(converted_weight)和在原始框架中的权重信息(source_weight)。

权重映射表示例如下所示:

{
    "resnet50": [
        {
            "converted_weight": {
                "name": "conv2d_0.weight",
                "shape": [
                    64,
                    3,
                    7,
                    7
                ],
                "data_type": "Float32"
            },
            "source_weight": {
                "name": "conv1.weight",
                "shape": [
                    64,
                    3,
                    7,
                    7
                ],
                "data_type": "float32"
            }
        }
    ]
}

TensorFlow模型脚本生成示例

使用TensorFlow模型脚本迁移,需要先将TensorFlow模型导出为pb格式(Frozen graph),并且获取模型输入节点、输出节点名称。pb模型导出示例,请参考MindConverter使用文档

假设,模型被保存至/home/user/xxx/frozen_model.pb,输入节点名称为input_1:0,输出节点名称为predictions/Softmax:0,模型输入样本尺寸为1,224,224,3,则可使用如下命令进行脚本生成:

mindconverter --model_file /home/user/xxx/frozen_model.pb --shape 1,224,224,3 \
              --input_nodes input_1:0 \
              --output_nodes predictions/Softmax:0 \
              --output /home/user/output \
              --report /home/user/output/report

执行该命令,MindSpore代码文件、权重文件、权重映射表和转换报告生成至相应目录。

基于图结构的脚本生成方案产生的转换报告格式与AST方案相同。然而,由于基于图结构方案属于生成式方法,转换过程中未参考原TensorFlow脚本,因此生成的转换报告中涉及的代码行、列号均指生成后脚本。

另外,对于未成功转换的算子,在代码中会相应的标识该节点输入、输出Tensor的shape(以input_shapeoutput_shape标识),便于用户手动修改,示例见PyTorch模型脚本生成示例章节中手动修改代码示例。

权重映射表示例见PyTorch模型脚本生成示例章节。

ONNX模型文件生成示例

使用ONNX模型文件迁移,需要先从.onnx文件中获取模型输入节点、输出节点名称。获取ONNX模输入、输出节点名称,可使用 Netron 工具查看。

假设输入节点名称为input_1:0、输出节点名称为predictions/Softmax:0,模型输入样本尺寸为1,3,224,224,则可使用如下命令进行脚本生成:

mindconverter --model_file /home/user/xxx/model.onnx --shape 1,3,224,224 \
              --input_nodes input_1:0 \
              --output_nodes predictions/Softmax:0 \
              --output /home/user/output \
              --report /home/user/output/report

执行该命令,MindSpore代码文件、权重文件、权重映射表和转换报告生成至相应目录。

由于基于图结构方案属于生成式方法,转换过程中未参考ONNX文件,因此生成的转换报告中涉及的代码行、列号均指生成后脚本。

另外,对于未成功转换的算子,在代码中会相应的标识该节点输入、输出Tensor的shape(以input_shapeoutput_shape标识),便于用户手动修改,示例见PyTorch模型脚本生成示例

权重映射表示例见PyTorch模型脚本生成示例章节。

注意事项

  1. PyTorch、TensorFlow、TF2ONNX(>=1.7.1)、ONNX(>=1.8.0)、ONNXRUNTIME(>=1.5.2)、ONNXOPTIMIZER(==0.1.2)不作为MindInsight明确声明的依赖库。若想使用基于图结构的脚本生成工具,需要用户手动安装与生成PyTorch模型版本一致的PyTorch库(MindConverter推荐使用PyTorch 1.5.0进行转换,PyTorch 1.4.x不支持,PyTorch 1.6.x、PyTorch 1.7.x未进行转换测试),或TensorFlow(MindConverter推荐使用TensorFlow 1.15.x版本);

  2. 脚本转换工具本质上为算子驱动,对于MindConverter未维护的PyTorch或ONNX算子与MindSpore算子映射,将会出现相应的算子无法转换的问题,对于该类算子,用户可手动修改,或基于MindConverter实现映射关系,向MindInsight仓库贡献;

  3. MindConverter仅保证转换后模型脚本在输入数据尺寸与--shape一致的情况下,可达到无需人工修改或少量修改(--shape中batch size维度不受限)。

  4. 脚本文件、权重文件和权重映射表输出于同一个目录下。