10.19678/j.issn.1000-3428.0058956
自适应窗隔匹配与深度学习相结合的RGB-D SLAM算法
在动态场景的SLAM系统中,传统的特征点法视觉SLAM系统易受动态物体的影响,使得图像前后两帧的动态物体区域出现大量的误匹配,导致机器人定位精度不高.为此,提出一种结合自适应窗隔匹配模型与深度学习算法的动态场景RGB-D SLAM算法.构建基于自适应窗隔匹配模型的视觉SLAM前端算法框架,该框架筛选图像帧后采用基于网格的概率运动统计方式实现匹配点筛选,以获得静态区域的特征匹配点对,然后使用恒速度模型或参考帧模型实现位姿估计.利用深度学习算法Mask R-CNN提供的语义信息进行动态场景的静态三维稠密地图构建.在TUM数据集和实际环境中进行算法性能验证,结果表明,该算法在动态场景下的定位精度和跟踪速度均优于ORB-SLAM2及DynaSLAM系统,在全长为6.62 m的高动态场景中定位精度可达1.475 cm,平均跟踪时间为0.024 s.
动态场景;自适应窗隔匹配;静态区域特征匹配;深度学习;静态三维稠密地图构建
47
TP391(计算技术、计算机技术)
国防科工局核能开发科研项目"核应急处置机器人关键技术研究";四川省科技厅重点研发项目"智能AGV车辆的SLAM建图与自主导航避障方法"
2021-08-23(万方平台首次上网日期,不代表论文的发表时间)
共10页
224-233