基于动态特征剔除的图像与点云融合的机器人位姿估计方法
针对动态物体影响传感器进行机器人位姿估计的问题,本文提出了一种基于动态特征剔除点云与图像融合的位姿估计方法.首先,YOLOv4和PointRCNN分别被用于识别图像和点云中的潜在运动目标并提取候选框.其次,在视觉定位方面,双目视觉与稀疏光流被用于路标点的构建与追踪,并根据候选框剔除动态特征点,随后构建重投影误差函数,通过基于RANSAC剔除的非线性优化方法求解相机位姿;在激光定位方面,提取前后帧的直线与平面特征点,并根据候选框进行筛选,基于特征点到直线或平面的距离构建误差函数,进而求解激光雷达位姿.为使系统不再局限于单一传感器的使用环境限制,通过自适应加权方法,有效融合了两种位姿结果.最后,通过KITTI数据集和动态场景采集的数据进行定量实验对比,验证了剔除动态特征后的位姿估计的精确性以及融合算法的有效性.
机器视觉、机器人定位、自适应融合、激光雷达、图像、深度学习
49
TP391(计算技术、计算机技术)
国家自然科学基金;江苏省重点研发计划;中央高校基本科研业务费专项资金资助项目;江苏省博士后科研资助计划
2022-04-20(万方平台首次上网日期,不代表论文的发表时间)
共12页
126-137