Windows10下的AlphaPose配置,人体摔倒姿态识别

AlphaPose为上海交大MVIG组提出的实时多人姿态估计算法,属于自顶向下的方法,即先要通过目标检测算法定位人体,再通过单人姿态估计定位每个人体框中的关键点。

(AlphaPose算法流程)

实验室主页:www.mvig.org/

项目首页:https://github.com/MVIG-SJTU/AlphaPose

环境:win10 + RTX2070s + Anaconda3

# 1. 创建alphapose虚拟环境.
conda create -n alphapose python=3.6 -y
conda activate alphapose
# 2. 安装pytorch(由于RTX2070s cuda必须为10.0+,conda自动在虚拟环境安装cuda10.0)
conda install pytorch torchvision cudatoolkit=10.0 -c pytorch

测试安装是否成功

  

# 3. 下载项目(老版本)
git clone -b pytorch https://github.com/MVIG-SJTU/AlphaPose.git
# 4. 安装依赖包(更改pytorch torchvision版本为安装版本)
pip install -r requirements.txt

duang, ntpath安装出错,alphapose的issue中看到有人说ntpath not necessary,可以直接删掉,不用安装。运行video_demo.py时注释import ntpath(15行),将ntpath替换为 'os.path' (66行)

也可以一样一样来,运行demo时缺什么装什么吧!

# 5. 安装Pillow、opencv、scipy、matplotlib、tqdm、visdom
# Pillow版本大于7.0.0,报错ImportError: cannot import name 'PILLOW_VERSION'
pip install Pillow==6.2.2 
pip install opencv-python
pip install scipy
pip install matplotlib
pip install tqdm
pip install visdom
# 6. 下载模型文件:
# yolov3-spp.weights 放入./models/yolo# duc_se.pth (2018/08/30) 放入./models/sppe
# 7. 运行demo.py、video_demo.py
# 可在opt.py修改参数,如batchsize、SP(单进程,否则报错)
python demo.py --indir ${img_directory} --outdir examples/respython video_demo.py --video ${path to video} --outdir examples/res --save_video

运行图片结果:

视频运行结果:

基于上述人体姿态估计方法,我们参加了中国华录杯—定向算法赛(人体摔倒姿态识别)赛道的比赛。由于该比赛没有提供有监督训练集,我们通过对定位的人体设定了相应的规则(检测框宽高比、关键点相对位置等)对人体是否摔倒进行了识别。

成功晋级(●'◡'●)

点击阅读原文,下载人体定位&姿态估计模型文件

提取码:f39n

长按二维码关注我们

有趣的灵魂在等你


版权声明:本文为fahaihappy原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。