安装MindSpore Serving

查看源文件

安装

MindSpore Serving当前仅支持Linux环境部署。

MindSpore Serving包在各类硬件平台(Nvidia GPU、Atlas训练系列产品、Atlas 200/300/500推理产品、Atlas推理系列产品(配置Ascend310P AI 处理器)、CPU)上通用,推理任务依赖MindSpore或MindSpore Lite推理框架,我们需要选择一个作为Serving推理后端。当这两个推理后端同时存在的时候,优先使用MindSpore Lite推理框架。

MindSpore和MindSpore Lite针对不同的硬件平台有不同的构建包,每个不同的构建包支持的运行目标设备和模型格式如下表所示:

推理后端

构建平台

运行目标设备

支持的模型格式

MindSpore

Nvidia GPU

Nvidia GPU

MindIR

Ascend

Atlas训练系列产品

MindIR

MindSpore Lite

Nvidia GPU

Nvidia GPU、CPU

MindIR_Lite

Ascend

Atlas 200/300/500推理产品、Atlas推理系列产品(配置Ascend310P AI 处理器)、CPU

MindIR_Lite

CPU

CPU

MindIR_Lite

当以MindSpore作为推理后端时,MindSpore Serving当前支持Atlas训练系列产品和Nvidia GPU环境。Atlas训练系列产品和GPU环境仅支持MindIR模型格式。

由于MindSpore Serving与MindSpore有依赖关系,请按照根据下表中所指示的对应关系,在MindSpore下载页面下载并安装对应的whl包。

MindSpore Serving 版本

分支

MindSpore 版本

2.0.0

r2.0

2.0.0

1.9.0

r1.9

1.9.0

1.8.0

r1.8

1.8.0, 1.8.1

1.7.0

r1.7

1.7.0

MindSpore的安装和配置可以参考安装MindSpore,并根据需要完成环境变量配置

当以MindSpore Lite作为推理后端时,MindSpore Serving当前支持Atlas 200/300/500推理产品、Atlas推理系列产品(配置Ascend310P AI 处理器)、Nvidia GPU和CPU。当前仅支持MindIR_Lite模型格式,MindSpore的MindIR或其他框架的模型文件需要通过Lite转换工具转换成MindIR_Lite模型格式。模型转换时,Ascend310设备和Ascend310P转换出的模型不一致,需要在对应的Ascend310或者Ascend310P设备上运行;Nvidia GPU和CPU环境转换成的MindIR_Lite模型仅能在Nvidia GPU和CPU使用。

推理后端

转换工具运行平台

MindIR_Lite模型运行设备

MindSpore Lite

Nvidia GPU, CPU

Nvidia GPU, CPU

Atlas 200/300/500推理产品

Atlas 200/300/500推理产品

Atlas推理系列产品(配置Ascend310P AI 处理器)

Atlas推理系列产品(配置Ascend310P AI 处理器)

MindSpore Lite安装和配置可以参考MindSpore Lite文档,通过环境变量LD_LIBRARY_PATH指示libmindspore-lite.so的安装路径。

MindSpore Serving的安装可以采用pip安装或者源码编译安装两种方式。

pip安装

使用pip命令安装,请从MindSpore Serving下载页面下载并安装whl包。

pip install https://ms-release.obs.cn-north-4.myhuaweicloud.com/{version}/Serving/{arch}/mindspore_serving-{version}-{python_version}-linux_{arch}.whl --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.edu.cn/simple
  • {version}表示MindSpore Serving版本号,例如下载1.1.0版本MindSpore Serving时,{version}应写为1.1.0。

  • {arch}表示系统架构,例如使用的Linux系统是x86架构64位时,{arch}应写为x86_64。如果系统是ARM架构64位,则写为aarch64

  • {python_version}表示用户的Python版本,Python版本为3.7时,{python_version}应写为cp37-cp37m。Python版本为3.8时,则写为cp38-cp38。Python版本为3.9时,则写为cp39-cp39。请和当前安装的MindSpore Serving使用的Python环境保持一致。

源码编译安装

通过源码编译安装。

git clone https://gitee.com/mindspore/serving.git -b master
cd serving
bash build.sh

对于bash build.sh,可通过例如-jn选项,例如-j16,加速编译;可通过-S on选项,从gitee而不是github下载第三方依赖。

MindSpore Serving编译依赖MindSpore推理头文件,上述编译过程,会下载依赖的MindSpore源码,如果已安装MindSpore whl包或者MindSpore Lite包,可通过以下编译命令避免下载MindSpore源码。

git clone https://gitee.com/mindspore/serving.git -b master
cd serving
bash build.sh -p ${mindspore_path}/lib

通过-p参数指定依赖的MindSpore或MindSpore Lite的路径,其中${mindspore_path}为MindSpore whl包安装路径或MindSpore Lite tar包里的runtime路径。

编译完成后,在build/package/目录下找到Serving的whl安装包进行安装:

pip install mindspore_serving-{version}-{python_version}-linux_{arch}.whl

验证是否成功安装

执行以下命令,验证安装结果。导入Python模块不报错即安装成功:

from mindspore_serving import server