MMAction2 01 - cutsom数据集(ing)
mmAction2安装1.1.1三级目录1.1.1三级目录
·
cutsom数据集
1.视频to图像
video2img.sh脚本
待师弟填坑
2.proposal自动生成
行为识别 <–> 人的行为 ==> 框person
利用目标检测算法,将图像帧中person识别出来,并导出box信息。
参数说明:
--input ../../Datasets/Interaction/images/train/*/*.jpg 需要生成 proposal.json 文件的图片路径
--output --output ../../Datasets/Interaction/anno 生成 proposal.json 文件的保存路径
--det-config ./mywork/faster_rcnn_0_fpn_2x_coco.py person检测模型配置文件
--det-checkpoint ../../Checkpoints/mmdetection/faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth person检测模型权重文件
使用脚本detection2_outvia3.py,执行如下命令:
python mywork/detection2_outvia3.py ./mywork/faster_rcnn_0_fpn_2x_coco.py ../../Checkpoints/mmdetection/faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth --input ../../Datasets/Interaction/images/train/*/*.jpg --gen_via3 --output ../../Datasets/Interaction/anno --score-thr 0.5 --show
如果有报错,注意输入输出的路径!!!
完成后,可以在Datasets/Interaction/anno文件夹中查看到如下文件
3.via标注工具下载与使用
3.1 下载
官网:https://www.robots.ox.ac.uk/~vgg/software/via/
3.2 解压
解压后如下图所示,打开via_image_annotator.html文件
3.3 使用
由于AVA数据十分庞大,硬盘和GPU都十分吃力,立即推 ~ 坚决不放弃
我们采用mini版的Interaction数据集:http://cvrc.ece.utexas.edu/SDHA2010/Human_Interaction.html
数据集格式如下:
└── Interaction
├── annotations
| ├── train/seq1.joson+seq1_proposal.json
| ├── test/seq5.joson+seq5_proposal.json
└── images
├── train/seq1/seq1_00003.jpg
├── test/seq5/seq5_00003.jpg
待完善~

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)