10.16652/j.issn.1004-373x.2023.19.007
基于LK光流与实例分割的联合动态一致性vSLAM算法
随着机器人的工作环境趋向于非结构环境变化,对视觉SLAM技术提出了更高的要求,既需要视觉SLAM能够在静态环境中对机器人精确地估计相机位姿,又需要视觉SLAM能够适应动态环境.针对上述问题,提出一种光流与实例分割相结合的视觉SLAM算法.首先对当前帧图像进行特征提取与实例分割,在特征提取完成后对其进行稀疏光流;然后根据实例分割结果与先验语义信息对物体赋予运动初值,并计算非动态物体的光流位移增量、动态物体光流位移增量和潜在动态物体光流位移增量;其次利用光流信息与实例分割掩码进行联合动态一致性检查,并剔除运动物体上提取的特征点;最后利用静态特征估计机器人位姿.用TUM数据集测试该算法,结果显示该算法在低动态环境下绝对轨迹误差较ORB-SLAM2能够减少52.04%,在高动态环境下绝对轨迹误差较ORB-SLAM2能够减少98.11%.在真实环境下对该算法进行评估,实验结果表明,该算法对物体的运动状态有精准的判定,这有助于提高算法的定位精度.
视觉SLAM、YOLOv7、深度学习、LK光流、动态特征剔除、非结构环境、机器视觉、语义信息
46
TN911.1-34;TP242
国家自然科学基金;新疆维吾尔自治区自然科学基金
2023-10-13(万方平台首次上网日期,不代表论文的发表时间)
共7页
34-40