基于CNN的点云图像融合目标检测
针对自动驾驶场景中目标检测存在尺度变化、光照变化和缺少距离信息等问题,提出一种极具鲁棒性的多模态数据融合目标检测方法,其主要思想是利用激光雷达提供的深度信息作为附加的特征来训练卷积神经网络(CNN).首先利用滑动窗对输入数据进行切分匹配网络输入,然后采用两个CNN特征提取器提取RGB图像和点云深度图的特征,将其级联得到融合后的特征图,送入目标检测网络进行候选框的位置回归与分类,最后进行非极大值抑制(NMS)处理输出检测结果,包含目标的位置、类别、置信度和距离信息.在KlTTl数据集上的实验结果表明,本文方法通过多模态数据的优势互补提高了在不同光照场景下的检测鲁棒性,附加滑动窗处理改善了小目标的检测效果.对比其他多种检测方法,本文方法具有检测精度与检测速度上的综合优势.
数据融合、目标检测、卷积神经网络、滑动窗
48
TP391.4(计算技术、计算机技术)
上海市自然科学基金;国家自然科学基金
2021-06-11(万方平台首次上网日期,不代表论文的发表时间)
共11页
63-73