本文档提供 MMClassification 相关用法的基本教程。
MMClassification 建议用户将数据集根目录链接到 $MMCLASSIFICATION/data
下。
如果用户的文件夹结构与默认结构不同,则需要在配置文件中进行对应路径的修改。
mmclassification
├── mmcls
├── tools
├── configs
├── docs
├── data
│ ├── imagenet
│ │ ├── meta
│ │ ├── train
│ │ ├── val
│ ├── cifar
│ │ ├── cifar-10-batches-py
│ ├── mnist
│ │ ├── train-images-idx3-ubyte
│ │ ├── train-labels-idx1-ubyte
│ │ ├── t10k-images-idx3-ubyte
│ │ ├── t10k-labels-idx1-ubyte
对于 ImageNet,其存在多个版本,但最为常用的一个是 ILSVRC 2012,可以通过以下步骤获取该数据集。
- 注册账号并登录 下载页面
- 获取 ILSVRC2012 下载链接并下载以下文件
- ILSVRC2012_img_train.tar (~138GB)
- ILSVRC2012_img_val.tar (~6.3GB)
- 解压下载的文件
- 使用 该脚本 获取元数据
对于 MNIST,CIFAR10 和 CIFAR100,程序将会在需要的时候自动下载数据集。
对于用户自定义数据集的准备,请参阅 教程 2:如何增加新数据集
MMClassification 提供了一些脚本用于进行单张图像的推理、数据集的推理和数据集的测试(如 ImageNet 等)
python demo/image_demo.py ${IMAGE_FILE} ${CONFIG_FILE} ${CHECKPOINT_FILE}
- 支持单 GPU
- 支持单节点多 GPU
- 支持多节点
用户可使用以下命令进行数据集的推理:
# 单 GPU
python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--metrics ${METRICS}] [--out ${RESULT_FILE}]
# 多 GPU
./tools/dist_test.sh ${CONFIG_FILE} ${CHECKPOINT_FILE} ${GPU_NUM} [--metrics ${METRICS}] [--out ${RESULT_FILE}]
# 基于 slurm 分布式环境的多节点
python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--metrics ${METRICS}] [--out ${RESULT_FILE}] --launcher slurm
可选参数:
RESULT_FILE
:输出结果的文件名。如果未指定,结果将不会保存到文件中。支持json, yaml, pickle格式。METRICS
:数据集测试指标,如准确率(accuracy), 精确率(precision), 召回率(recall)等
例子:
假定用户将下载的模型权重文件放置在 checkpoints/
目录下。
在 ImageNet 验证集上,使用 ResNet-50 进行推理并获得预测标签及其对应的预测得分。
python tools/test.py configs/imagenet/resnet50_batch256.py checkpoints/xxx.pth --out result.pkl
MMClassification 使用 MMDistributedDataParallel
进行分布式训练,使用 MMDataParallel
进行非分布式训练。
所有的输出(日志文件和模型权重文件)会被将保存到工作目录下。工作目录通过配置文件中的参数 work_dir
指定。
默认情况下,MMClassification 在每个周期后会在验证集上评估模型,可以通过在训练配置中修改 interval
参数来更改评估间隔
evaluation = dict(interval=12) # 每进行12轮训练后评估一次模型
python tools/train.py ${CONFIG_FILE} [optional arguments]
如果用户想在命令中指定工作目录,则需要增加参数 --work-dir ${YOUR_WORK_DIR}
./tools/dist_train.sh ${CONFIG_FILE} ${GPU_NUM} [optional arguments]
可选参数为:
--no-validate
(不建议): 默认情况下,程序将会在训练期间的每 k (默认为 1) 个周期进行一次验证。要禁用这一功能,使用--no-validate
--work-dir ${WORK_DIR}
:覆盖配置文件中指定的工作目录。--resume-from ${CHECKPOINT_FILE}
:从以前的模型权重文件恢复训练。
resume-from
和 load-from
的不同点:
resume-from
加载模型参数和优化器状态,并且保留检查点所在的周期数,常被用于恢复意外被中断的训练。
load-from
只加载模型参数,但周期数从 0 开始计数,常被用于微调模型。
如果用户在 slurm 集群上运行 MMClassification,可使用 slurm_train.sh
脚本。(该脚本也支持单台机器上进行训练)
[GPUS=${GPUS}] ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} ${CONFIG_FILE} ${WORK_DIR}
用户可以在 slurm_train.sh 中检查所有的参数和环境变量
如果用户的多台机器通过 Ethernet 连接,则可以参考 pytorch launch utility。如果用户没有高速网络,如 InfiniBand,速度将会非常慢。
如果用使用单台机器启动多个任务,如在有 8 块 GPU 的单台机器上启动 2 个需要 4 块 GPU 的训练任务,则需要为每个任务指定不同端口,以避免通信冲突。
如果用户使用 dist_train.sh
脚本启动训练任务,则可以通过以下命令指定端口
CUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 ./tools/dist_train.sh ${CONFIG_FILE} 4
CUDA_VISIBLE_DEVICES=4,5,6,7 PORT=29501 ./tools/dist_train.sh ${CONFIG_FILE} 4
如果用户在 slurm 集群下启动多个训练任务,则需要修改配置文件(通常是配置文件的倒数第 6 行)中的 dist_params
变量,以设置不同的通信端口。
在 config1.py
中,
dist_params = dict(backend='nccl', port=29500)
在 config2.py
中,
dist_params = dict(backend='nccl', port=29501)
之后便可启动两个任务,分别对应 config1.py
和 config2.py
。
CUDA_VISIBLE_DEVICES=0,1,2,3 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config1.py ${WORK_DIR}
CUDA_VISIBLE_DEVICES=4,5,6,7 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config2.py ${WORK_DIR}
我们在 tools/
目录下提供的一些对训练和测试十分有用的工具
我们根据 flops-counter.pytorch 提供了一个脚本用于计算给定模型的 FLOPs 和参数量
python tools/get_flops.py ${CONFIG_FILE} [--shape ${INPUT_SHAPE}]
用户将获得如下结果:
==============================
Input shape: (3, 224, 224)
Flops: 4.12 GFLOPs
Params: 25.56 M
==============================
注意:此工具仍处于试验阶段,我们不保证该数字正确无误。您最好将结果用于简单比较,但在技术报告或论文中采用该结果之前,请仔细检查。
- FLOPs 与输入的尺寸有关,而参数量与输入尺寸无关。默认输入尺寸为 (1, 3, 224, 224)
- 一些运算不会被计入 FLOPs 的统计中,例如 GN 和自定义运算。详细信息请参考
mmcv.cnn.get_model_complexity_info()
在上传模型至 AWS 之前,也许会需要
- 转换模型权重至 CPU 张量
- 删除优化器状态
- 计算模型权重文件的哈希值,并添加至文件名之后
python tools/publish_model.py ${INPUT_FILENAME} ${OUTPUT_FILENAME}
例如:
python tools/publish_model.py work_dirs/resnet50/latest.pth imagenet_resnet50_20200708.pth
最终输出的文件名将会是 imagenet_resnet50_20200708-{hash id}.pth
目前, MMClassification 提供以下几种更详细的教程: