Release Notes

查看源文件

MindSpore Lite 2.2.14 Release Notes

问题修复

  • [I96PJC] 通过Mindspore Lite Python API加载ms格式的CLIP模型报错。

贡献者

感谢以下人员做出的贡献:

wangtongyu6, zhuguodong, 徐永飞, 徐安越, yeyunpeng2020, moran, XinDu, gengdongjie

欢迎以任何形式对项目提供贡献!

MindSpore Lite 2.2.11 Release Notes

问题修复

  • [#I8TPLY] 修复 SSD MobileNetV2 FPN 网络在Atlas 推理系列产品(配置 Ascend 310P AI 处理器)平台上的推理失败问题。

贡献者

感谢以下人员做出的贡献:

wangtongyu6, zhuguodong, 徐永飞, 徐安越, yeyunpeng2020, moran, XinDu, gengdongjie.

欢迎以任何形式对项目提供贡献!

MindSpore Lite 2.2.10 Release Notes

问题修复

  • [#I8K7CC]优化get_model_info接口传入非str字段的报错

贡献者

感谢以下人员做出的贡献:

gengdongjie, zhangyanhui, xiaoxiongzhu, wangshaocong, jianghui58, moran, wangtongyu6, 徐安越, qinzheng, 徐永飞, youshu, XinDu, yeyunpeng2020, yefeng, wangpingan, zjun, 胡安东, 刘力力, 陈宇, chenjianping, kairui_kou, zhangdanyang, hangq, mengyuanli, 刘崇鸣

欢迎以任何形式对项目提供贡献!

MindSpore Lite 2.2.1 Release Notes

Bug Fixes

  • [#I88055] 修复MindSpore Lite推理gridsample算子format设置错误的问题。

  • [#I8D80Y] 修复MindSpore Lite推理单算子调用流程资源释放异常的问题。

贡献者

感谢以下人员做出的贡献:

zhanghaibo, wangsiyuan, yefeng, wangshaocong, chenjianping

欢迎以任何形式对项目提供贡献!

MindSpore Lite 2.2.0 Release Notes

主要特性和增强

支持FlashAttention算子融合

  • [STABLE] 在Ascend 910系列硬件上,支持LLAMA、stable diffusion系列模型的FlashAttention大算子融合。