体验MindSpore Lite Java极简Demo

Linux X86 Java 全流程 推理应用 数据准备 初级

查看源文件

概述

本教程提供了MindSpore Lite执行推理的示例程序,通过随机输入、执行推理、打印推理结果的方式,演示了利用MindSpore Lite Java API进行端侧推理的基本流程,用户能够快速了解MindSpore Lite执行推理相关Java API的使用。本教程通过随机生成的数据作为输入数据,执行MobileNetV2模型的推理,打印获得输出数据。相关代码放置在mindspore/lite/examples/quick_start_java目录。

使用MindSpore Lite执行推理主要包括以下步骤:

  1. 模型加载:从文件系统中读取由模型转换工具转换得到的.ms模型,通过Model的loadModel导入模型。

  2. 创建配置上下文:创建配置上下文MSConfig,保存会话所需的一些基本配置参数,用于指导图编译和图执行。主要包括deviceType:设备类型、threadNum:线程数、cpuBindMode:CPU绑定模式、enable_float16:是否优先使用float16算子。

  3. 创建会话:创建LiteSession,并调用init方法将上一步得到的MSConfig配置到会话中。

  4. 图编译:在图执行前,需要调用LiteSessioncompileGraph接口进行图编译,主要进行子图切分、算子选型调度。这部分会耗费较多时间,所以建议LiteSession创建一次,编译一次,多次执行。

  5. 输入数据:图执行之前需要向输入Tensor中填充数据。

  6. 执行推理:使用LiteSessionrunGraph进行模型推理。

  7. 获得输出:图执行结束之后,可以通过输出Tensor得到推理结果。

  8. 释放内存:无需使用MindSpore Lite推理框架的时候,需要释放已创建的LiteSessionmodel

img

如需查看MindSpore Lite高级用法,请参考使用Runtime执行推理(Java)

构建与运行

  • 环境要求

    • 系统环境:Linux x86_64,推荐使用Ubuntu 18.04.02LTS

    • 编译依赖:

  • 编译构建

    mindspore/lite/examples/quick_start_java目录下执行build脚本,将自动下载MindSpore Lite推理框架库以及文模型文件并编译Demo。

    bash build.sh
    

    若MindSpore Lite推理框架下载失败,请手动下载硬件平台为CPU、操作系统为Ubuntu-x64的MindSpore Lite 框架mindspore-lite-{version}-linux-x64.tar.gz,解压后将inference/lib/jar目录下的libmindspore-lite.solibmindspore-lite-jni.so以及libmindspore-lite-java.jar拷贝到mindspore/lite/examples/quick_start_java/lib目录。

    若MobileNetV2模型下载失败,请手动下载相关模型文件mobilenetv2.ms,并将其拷贝到mindspore/lite/examples/quick_start_java/model/目录。

    通过手动下载并且将文件放到指定位置后,需要再次执行build.sh脚本才能完成编译构建。

  • 执行推理

    编译构建后,进入mindspore/lite/examples/quick_start_java/target目录,并执行以下命令,体验MindSpore Lite推理MobileNetV2模型。

    export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:../lib/
    java -Djava.library.path=../lib/ -classpath .:./quick_start_java.jar:../lib/mindspore-lite-java.jar  com.mindspore.lite.demo.Main ../model/mobilenetv2.ms
    

    执行完成后将能得到如下结果,打印输出Tensor的名称、输出Tensor的大小,输出Tensor的数量以及前50个数据:

    out tensor shape: [1,1000,] and out data: 5.4091015E-5 4.030303E-4 3.032344E-4 4.0029243E-4 2.2730739E-4 8.366581E-5 2.629827E-4 3.512394E-4 2.879536E-4 1.9557697E-4xxxxxxxxxx MindSpore Lite 1.1.0out tensor shape: [1,1000,] and out data: 5.4091015E-5 4.030303E-4 3.032344E-4 4.0029243E-4 2.2730739E-4 8.366581E-5 2.629827E-4 3.512394E-4 2.879536E-4 1.9557697E-4tensor name is:Default/Sigmoid-op204 tensor size is:2000 tensor elements num is:500output data is:3.31223e-05 1.99382e-05 3.01624e-05 0.000108345 1.19685e-05 4.25282e-06 0.00049955 0.000340809 0.00199094 0.000997094 0.00013585 1.57605e-05 4.34131e-05 1.56114e-05 0.000550819 2.9839e-05 4.70447e-06 6.91601e-06 0.000134483 2.06795e-06 4.11612e-05 2.4667e-05 7.26248e-06 2.37974e-05 0.000134513 0.00142482 0.00011707 0.000161848 0.000395011 3.01961e-05 3.95325e-05 3.12398e-06 3.57709e-05 1.36277e-06 1.01068e-05 0.000350805 5.09019e-05 0.000805241 6.60321e-05 2.13734e-05 9.88654e-05 2.1991e-06 3.24065e-05 3.9479e-05 4.45178e-05 0.00205024 0.000780899 2.0633e-05 1.89997e-05 0.00197261 0.000259391
    

模型加载

首先从文件系统中读取MindSpore Lite模型,并通过model.loadModel函数导入模型进行解析。

boolean ret = model.loadModel(modelPath);
if (!ret) {
    System.err.println("Load model failed, model path is " + modelPath);
    return;
}

模型编译

模型编译主要包括创建配置上下文、创建会话、图编译等步骤。

private static boolean compile() {
    MSConfig msConfig = new MSConfig();
    // You can set config through Init Api or use the default parameters directly.
    // The default parameter is that the backend type is DeviceType.DT_CPU, and the number of threads is 2.
    boolean ret = msConfig.init(DeviceType.DT_CPU, 2);
    if (!ret) {
        System.err.println("Init context failed");
        return false;
    }

    // Create the MindSpore lite session.
    session = new LiteSession();
    ret = session.init(msConfig);
    msConfig.free();
    if (!ret) {
        System.err.println("Create session failed");
        model.free();
        return false;
    }

    // Compile graph.
    ret = session.compileGraph(model);
    if (!ret) {
        System.err.println("Compile graph failed");
        model.free();
        return false;
    }
    return true;
}

模型推理

模型推理主要包括输入数据、执行推理、获得输出等步骤,其中本示例中的输入数据是通过随机数据构造生成,最后将执行推理后的输出结果打印出来。

private static boolean run() {
    MSTensor inputTensor = session.getInputsByTensorName("2031_2030_1_construct_wrapper:x");
    if (inputTensor.getDataType() != DataType.kNumberTypeFloat32) {
        System.err.println("Input tensor shape do not float, the data type is " + inputTensor.getDataType());
        return false;
    }
    // Generator Random Data.
    int elementNums = inputTensor.elementsNum();
    float[] randomData = generateArray(elementNums);
    byte[] inputData = floatArrayToByteArray(randomData);

    // Set Input Data.
    inputTensor.setData(inputData);

    // Run Inference.
    boolean ret = session.runGraph();
    if (!ret) {
        System.err.println("MindSpore Lite run failed.");
        return false;
    }

    // Get Output Tensor Data.
    MSTensor outTensor = session.getOutputByTensorName("Default/head-MobileNetV2Head/Softmax-op204");

    // Print out Tensor Data.
    StringBuilder msgSb = new StringBuilder();
    msgSb.append("out tensor shape: [");
    int[] shape = outTensor.getShape();
    for (int dim : shape) {
        msgSb.append(dim).append(",");
    }
    msgSb.append("]");
    if (outTensor.getDataType() != DataType.kNumberTypeFloat32) {
        System.err.println("output tensor shape do not float, the data type is " + outTensor.getDataType());
        return false;
    }
    float[] result = outTensor.getFloatData();
    if (result == null) {
        System.err.println("decodeBytes return null");
        return false;
    }
    msgSb.append(" and out data:");
    for (int i = 0; i < 10 && i < outTensor.elementsNum(); i++) {
        msgSb.append(" ").append(result[i]);
    }
    System.out.println(msgSb.toString());
    return true;
}

内存释放

无需使用MindSpore Lite推理框架时,需要释放已经创建的LiteSessionModel

// Delete session buffer.
session.free();
// Delete model buffer.
model.free();