基于机器视觉的石化场景人员危险行为识别
针对石油化工场景下传统的人体行为识别算法只关注人员自身行为,无法识别打手机、抽烟等属于人-物交互危险行为的问题,在基于骨骼点的人体行为识别任务中引入目标检测机制,提出基于深度学习的人-物交互行为识别算法.首先,采用OpenPose算法进行姿态估计,进而利用行为识别方法获取初始行为类别;其次,针对传统方法丢失背景和语义信息的问题,使用YOLOv3算法检测感兴趣物体,获得类别和位置信息;然后,通过判断人与物体的空间位置关系来表征人-物交互关系;最后,提出决策融合策略,对人的初始行为类别、物体信息、人-物交互关系进行决策融合,得到最终的行为识别结果.以打手机和抽烟行为为例对所提算法进行验证分析,结果表明,所提算法可以对石化场景下人员的危险行为进行准确识别.
机器视觉、姿态估计、行为识别、目标检测、决策融合
58
TP391.4(计算技术、计算机技术)
2022-01-12(万方平台首次上网日期,不代表论文的发表时间)
共11页
347-357