10.11996/JG.j.2095-302X.2021030432
基于高分辨率网络的人体姿态估计方法
人体姿态估计在人机交互和行为识别应用中起着至关重要的作用,但人体姿态估计方法在特征图尺度变化中难以预测正确的人体姿态.为了提高姿态估计的准确性,将并行网络多尺度融合方法和生成高质量特征图的方法结合进行人体姿态估计(RefinedHRNet).在人体检测基础之上,采用并行网络多尺度融合方法在阶段内采用空洞卷积模块来扩大感受野,以保持上下文信息;在阶段之间采用反卷积模块和上采样模块生成高质量的特征图;然后并行子网络最高分辨率的特征图(输入图像尺寸的1/4)用于姿态估计;最后采用目标关键点相似度OKS来评价关键点识别的准确性.在COCO2017测试集上进行实验,该方法比HRNet网络模型姿态估计的准确度提高了0.4%.
姿态估计、多尺度融合、高质量特征图、人体检测、关键点相似度
42
TP391(计算技术、计算机技术)
2021-07-07(万方平台首次上网日期,不代表论文的发表时间)
共7页
432-438