简体中文 | English
基于PaddleSeg的MODNet算法实现人像抠图(安卓版demo)。
可以直接下载安装本示例工程中的apk进行体验。
注:此安卓demo基于Paddle-Lite开发,PaddleLite版本为2.8.0。
注意:demo中拍照时照片会自动压缩,想测试拍照原图效果,可使用手机相机拍照后从相册中打开进行预测。
可按需要更新预测库或模型进行二次开发,其中更新模型分为模型导出和模型转换两个步骤。
Paddle-Lite官网提供了预编译版本的安卓预测库,也可以参考官网自行编译。
Paddle-Lite在安卓端的预测库主要包括三个文件:
下面分别介绍两种方法:
使用预编译版本的预测库,最新的预编译文件参考:release,此demo使用的版本
解压上面文件,PaddlePredictor.jar位于:java/PaddlePredictor.jar;
arm64-v8a相关so位于:java/libs/arm64-v8a;
armeabi-v7a相关so位于:java/libs/armeabi-v7a;
手动编译Paddle-Lite预测库 开发环境的准备和编译方法参考:Paddle-Lite源码编译。
准备好上述文件,即可参考java_api在安卓端进行推理。具体使用预测库的方法可参考Paddle-Lite-Demo中更新预测库部分的文档。
此demo的人像抠图采用Backbone为HRNet_W18的MODNet模型,模型训练教程请参考官网,官网提供了3种不同性能的Backone:MobileNetV2、ResNet50_vd和HRNet_W18。本安卓demo综合考虑精度和速度要求,采用了HRNet_W18作为Backone。可以直接从官网下载训练好的动态图模型进行算法验证。
为了能够在安卓手机上进行推理,需要将动态图模型导出为静态图模型,导出时固定图像输入尺寸即可。
首先git最新的PaddleSeg项目,然后cd进入到PaddleSeg/contrib/Matting目录。将下载下来的modnet-hrnet_w18.pdparams动态图模型文件(也可以自行训练得到)放置在当前文件夹(PaddleSeg/contrib/Matting)下面。然后修改配置文件 configs/modnet_mobilenetv2.yml(注意:虽然采用hrnet18模型,但是该模型依赖的配置文件modnet_hrnet_w18.yml本身依赖modnet_mobilenetv2.yml),修改其中的val_dataset字段如下:
val_dataset:
type: MattingDataset
dataset_root: data/PPM-100
val_file: val.txt
transforms:
- type: LoadImages
- type: ResizeByShort
short_size: 256
- type: ResizeToIntMult
mult_int: 32
- type: Normalize
mode: val
get_trimap: False
上述修改中尤其注意short_size: 256这个字段,这个值直接决定我们最终的推理图像采用的尺寸大小。这个字段值设置太小会影响预测精度,设置太大会影响手机推理速度(甚至造成手机因性能问题无法完成推理而崩溃)。经过实际测试,对于hrnet18,该字段设置为256较好。
完成配置文件修改后,采用下面的命令进行静态图导出:
python export.py \
--config configs/modnet/modnet_hrnet_w18.yml \
--model_path modnet-hrnet_w18.pdparams \
--save_dir output
转换完成后在当前目录下会生成output文件夹,该文件夹中的文件即为转出来的静态图文件。
准备好PaddleSeg导出来的静态图模型和参数文件后,需要使用Paddle-Lite提供的opt对模型进行优化,并转换成Paddle-Lite支持的文件格式。
首先安装PaddleLite:
pip install paddlelite==2.8.0
然后使用下面的python脚本进行转换:
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定静态模型路径
opt.set_model_file('./output/model.pdmodel')
opt.set_param_file('./output/model.pdiparams')
# 3. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 5. 输出模型地址
opt.set_optimize_out("./output/hrnet_w18")
# 6. 执行模型优化
opt.run()
转换完成后在output目录下会生成对应的hrnet_w18.nb文件。
将优化好的.nb
文件,替换安卓程序中的 app/src/main/assets/image_matting/
models/modnet下面的文件即可。
然后在工程中修改图像输入尺寸:打开string.xml文件,修改示例如下:
<string name="INPUT_SHAPE_DEFAULT">1,3,256,256</string>
1,3,256,256分别表示图像对应的batchsize、channel、height、width,我们一般修改height和width即可,这里的height和width需要和静态图导出时设置的尺寸一致。
整个安卓demo采用java实现,没有内嵌C++代码,构建和执行比较简单。未来也可以将本demo移植到java web项目中实现web版人像抠图。