多视角数据融合的特征平衡YOLOv3行人检测研究
针对复杂场景下行人发生遮挡检测困难以及远距离行人检测精确度低的问题,本文提出一种多视角数据融合的特征平衡YOLOv3行人检测模型(MVBYOLO),包括2部分:自监督学习的多视角特征点融合模型(Self-MVFM)和特征平衡YOLOv3网络(BYOLO).Self-MVFM对输入的2个及以上的视角数据进行自监督学习特征,通过特征点的匹配实现多视角信息融合,在融合时使用加权平滑算法解决产生的色差问题;BYOLO使用相同分辨率融合高层语义特征和低层细节特征,得到平衡的语义增强多层级特征,提高复杂场景下车辆前方行人检测的精确度.为了验证所提出方法的有效性,在VOC数据集上进行对比实验,最终AP值达到80.14%.与原YOLOv3网络相比,本文提出的MVBYOLO模型精度提高了2.89%.
多视数据、自监督学习、特征点匹配、特征融合、YOLOv3网络、平衡特征、复杂场景、行人检测
16
TP391(计算技术、计算机技术)
国家自然科学基金;国家自然科学基金;国家自然科学基金;军委装备发展部共性预研计划项目;北京联合大学人才强校计划;研究生科研创新项目
2021-06-15(万方平台首次上网日期,不代表论文的发表时间)
共9页
57-65