Skip to content

Latest commit

 

History

History
 
 

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 

English | 简体中文

PaddleSeg 语义分割模型RKNPU2部署方案-FastDeploy

1. 说明

RKNPU2 提供了一个高性能接口来访问 Rockchip NPU,支持如下硬件的部署

  • RK3566/RK3568
  • RK3588/RK3588S
  • RV1103/RV1106

本示例基于 RV3588 来介绍如何使用 FastDeploy 部署 PaddleSeg 模型

2. 使用预导出的模型列表

模型 参数文件大小 输入Shape mIoU mIoU (flip) mIoU (ms+flip)
Unet-cityscapes 52MB 1024x512 65.00% 66.02% 66.89%
PP-LiteSeg-T(STDC1)-cityscapes 31MB 1024x512 77.04% 77.73% 77.46%
PP-HumanSegV1-Lite(通用人像分割模型) 543KB 192x192 86.2% - -
PP-HumanSegV2-Lite(通用人像分割模型) 12MB 192x192 92.52% - -
PP-HumanSegV2-Mobile(通用人像分割模型) 29MB 192x192 93.13% - -
PP-HumanSegV1-Server(通用人像分割模型) 103MB 512x512 96.47% - -
Portait-PP-HumanSegV2_Lite(肖像分割模型) 3.6M 256x144 96.63% - -
FCN-HRNet-W18-cityscapes 37MB 1024x512 78.97% 79.49% 79.74%
Deeplabv3-ResNet101-OS8-cityscapes 150MB 1024x512 79.90% 80.22% 80.47%

3. 自行导出PaddleSeg部署模型

3.1 模型版本

支持PaddleSeg高于2.6版本的Segmentation模型。目前FastDeploy测试过成功部署的模型:

3.2 模型导出

PaddleSeg模型导出,请参考其文档说明模型导出注意:PaddleSeg导出的模型包含model.pdmodelmodel.pdiparamsdeploy.yaml三个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息

3.3 导出须知

请参考模型导出output_op参数的说明,获取您部署所需的模型,比如是否带argmaxsoftmax算子

3.4 转换为RKNN模型

RKNPU部署模型前需要将Paddle模型转换成RKNN模型,具体步骤如下:

  • PaddleSeg训练模型导出为推理模型,请参考PaddleSeg模型导出说明,也可以使用上表中的FastDeploy的预导出模型
  • Paddle模型转换为ONNX模型,请参考Paddle2ONNX
  • ONNX模型转换RKNN模型的过程,请参考转换文档进行转换。

上述步骤可参考以下具体示例,模型转换示例:

4. 详细的部署示例