10.19678/j.issn.1000-3428.0060052
基于K⁃Means聚类与深度学习的RGB⁃D SLAM算法
传统的RGB-D视觉同时定位与制图(SLAM)算法在动态场景中识别动态特征时会产生数据错误关联,导致视觉SLAM估计姿态精度退化.提出一种适用于动态场景的RGB-D SLAM算法,利用全新的跨平台神经网络深度学习框架检测场景中的动态语义特征,并分割提取对应的动态语义特征区域.结合深度图像的K均值聚类算法和动态语义特征区域对点特征深度值进行聚类,根据聚类结果剔除动态特征点,同时通过剩余特征点计算RGB-D相机的位姿.实验结果表明,相比ORB-SLAM2、OFD-SLAM、MR-SLAM等算法,该算法能够减小动态场景下的跟踪误差,提高相机位姿估计的精度和鲁棒性,其在TUM动态数据集上相机绝对轨迹的均方根误差约为0.019 m.
同时定位与制图;动态场景;深度学习;目标检测;K均值聚类
48
TP391(计算技术、计算机技术)
中央高校基本科研业务费专项;江苏省研究生科研创新计划
2022-01-13(万方平台首次上网日期,不代表论文的发表时间)
共10页
236-244,252