- 在模型大小上,默认FP32精度下(.pth)文件大小为 1.04~1.1MB,推理框架int8量化后大小为 300KB 左右。
- 在模型计算量上,320x240的输入分辨率下 90~109 MFlops左右。
- 模型有两个版本,version-slim(主干精简速度略快),version-RFB(加入了修改后的RFB模块,精度更高)。
- 提供320x240、640x480不同输入分辨率下使用widerface训练的预训练模型,更好的工作于不同的应用场景。
- 支持onnx导出。
- 提供NCNN C++推理代码。
- 提供MNN C++推理代码、MNN Python推理代码、FP32/INT8量化后模型。
- 提供转换后的Caffe model 和 onnx2caffe 转换代码。
- Caffe python 推理代码 和 OpencvDNN推理代码。
- Ubuntu16.04、Ubuntu18.04、Windows 10(inference)
- Python3.6
- Pytorch1.2
- CUDA10.0 + CUDNN7.6
训练集是使用Retinaface提供的清理过的widerface标签配合widerface数据集生成VOC训练集(PS:以下测试结果为本人测试,结果可能有部分出入)。
- 在WIDER FACE val集测试精度(单尺度输入分辨率:320*240 或按最大边长320等比缩放)
模型 | Easy Set | Medium Set | Hard Set |
---|---|---|---|
libfacedetection v1(caffe) | 0.65 | 0.5 | 0.233 |
libfacedetection v2(caffe) | 0.714 | 0.585 | 0.306 |
Retinaface-Mobilenet-0.25 (Mxnet) | 0.745 | 0.553 | 0.232 |
version-slim | 0.77 | 0.671 | 0.395 |
version-RFB | 0.787 | 0.698 | 0.438 |
- 在WIDER FACE val集测试精度(单尺度输入分辨率:VGA 640*480 或按最大边长640等比缩放 )
模型 | Easy Set | Medium Set | Hard Set |
---|---|---|---|
libfacedetection v1(caffe) | 0.741 | 0.683 | 0.421 |
libfacedetection v2(caffe) | 0.773 | 0.718 | 0.485 |
Retinaface-Mobilenet-0.25 (Mxnet) | 0.879 | 0.807 | 0.481 |
version-slim | 0.853 | 0.819 | 0.539 |
version-RFB | 0.855 | 0.822 | 0.579 |
- 该部分主要是测试模型在中小分辨率下的测试集效果。
- RetinaFace-mnet(Retinaface-Mobilenet-0.25),来自于很棒的工作insightface,测试该网络时是将原图按最大边长320或者640等比缩放,所以人脸不会形变,其余网络采用固定尺寸resize。同时RetinaFace-mnet最优1600单尺度val测试集结果为0.887(Easy)/0.87(Medium)/0.791(Hard)。
- 树莓派4B MNN推理测试耗时 (单位:ms)(ARM/A72x4/1.5GHz/输入分辨率 : 320x240 /int8 量化 )
模型 | 1核 | 2核 | 3核 | 4核 |
---|---|---|---|---|
libfacedetection v1 | 28 | 16 | 12 | 9.7 |
官方 Retinaface-Mobilenet-0.25 (Mxnet) | 46 | 25 | 18.5 | 15 |
version-slim | 29 | 16 | 12 | 9.5 |
version-RFB | 35 | 19.6 | 14.8 | 11 |
- iPhone 6s Plus MNN (版本Tag:0.2.1.5) 推理测试耗时(输入分辨率 : 320x240 )数据来自MNN官方
模型 | 耗时(ms) |
---|---|
slim-320 | 6.33 |
RFB-320 | 7.8 |
- Kendryte K210 NNCase 推理测试耗时 (RISC-V/400MHz/输入分辨率 : 320x240 /int8 量化) 数据来自NNCase
Model | Inference Latency(ms) |
---|---|
slim-320 | 65.6 |
RFB-320 | 164.8 |
- 若干开源轻量级人脸检测模型大小比较 :
模型 | 模型文件大小(MB) |
---|---|
libfacedetection v1(caffe) | 2.58 |
libfacedetection v2(caffe) | 3.34 |
官方 Retinaface-Mobilenet-0.25 (Mxnet) | 1.68 |
version-slim | 1.04 |
version-RFB | 1.11 |
- 下载widerface官网数据集或者下载我提供的训练集解压放入./data文件夹内:
(1)过滤掉10px*10px 小人脸后的干净widerface数据压缩包 :百度云盘 (提取码:cbiu) 、Google Drive
(2)未过滤小人脸的完整widerface数据压缩包 :百度云盘 (提取码:ievk) 、Google Drive
- (PS:如果下载的是过滤后的上述(1)中的数据包,则不需要执行这步) 由于widerface存在很多极小的不清楚的人脸,不太利于高效模型的收敛,所以需要过滤训练,默认过滤人脸大小10像素x10像素以下的人脸。 运行./data/wider_face_2_voc_add_landmark.py
python3 ./data/wider_face_2_voc_add_landmark.py
程序运行和完毕后会在./data目录下生成 wider_face_add_lm_10_10文件夹,该文件夹数据和数据包(1)解压后相同,完整目录结构如下:
data/
retinaface_labels/
test/
train/
val/
wider_face/
WIDER_test/
WIDER_train/
WIDER_val/
wider_face_add_lm_10_10/
Annotations/
ImageSets/
JPEGImages/
wider_face_2_voc_add_landmark.py
-
至此VOC训练集准备完毕,项目根目录下分别有 train-version-slim.sh 和 train-version-RFB.sh 两个脚本,前者用于训练slim版本模型,后者用于训练RFB版本模型,默认参数已设置好,参数如需微调请参考 ./train.py 中关于各训练超参数的说明。
-
运行train-version-slim.sh 或 train-version-RFB.sh即可
sh train-version-slim.sh 或者 sh train-version-RFB.sh
- 若生产实际场景为中近距离、人脸大、人脸数少,则建议采用输入尺寸input_size:320(320x240)分辨率训练,并采用 320x240/160x120/128x96 图片大小输入进行预测推理,如使用提供的预训练模型 version-slim-320.pth 或者 version-RFB-320.pth 进行推理。
- 若生产实际场景为中远距离、人脸中小、人脸数多,则建议采用:
(1)最优:输入尺寸input_size:640(640x480)分辨率训练,并采用同等或更大输入尺寸进行预测推理,如使用提供的预训练模型 version-slim-640.pth 或者 version-RFB-640.pth 进行推理,更低的误报。
(2)次优:输入尺寸input_size:320(320x240)分辨率训练,并采用480x360或640x480大小输入进行预测推理,对于小人脸更敏感,误报会增加。
- 各个场景的最佳效果需要调整输入分辨率从而在速度和精度中间取得平衡。
- 过大的输入分辨率虽然会增强小人脸的召回率,但是也会提高大、近距离人脸的误报率,而且推理速度延迟成倍增加。
- 过小的输入分辨率虽然会明显加快推理速度,但是会大幅降低小人脸的召回率。
- 生产场景的输入分辨率尽量与模型训练时的输入分辨率保持一致,上下浮动不宜过大。
- 完善测试数据