10.19678/j.issn.1000-3428.0062294
动态环境下融合轻量级YOLOv5s的视觉SLAM
移动机器人在未知环境下依靠同步定位与地图构建(SLAM)实现自身的精确定位,目前大多数视觉SLAM系统在运行时均假设外部环境是静态的,但在实际应用场景下该假设并不成立,传统的视觉SLAM系统在动态环境下易受移动目标的影响,导致系统定位精度下降.提出一种新的视觉SLAM系统,将轻量级网络MobileNetV3作为目标检测网络YOLOv5s的主干网络,从而减少模型参数量,提高算法在CPU上的推理速度.将目标检测网络、光流法与ORB-SLAM系统相结合,使SLAM系统前端提取ORB特征点的同时能够有效剔除动态特征点.仅利用静态目标上的特征点进行帧间匹配,从而求解相机位姿,提高系统在动态环境下的定位精度.在TUM动态数据集上的实验结果表明,与ORB-SLAM3系统相比,该系统的位姿估计精度提升了 80.16%,与DS-SLAM、DVO-SLAM系统等动态SLAM系统相比,该系统在定位精度上有大幅提升,相比使用MASK-RCNN的DynaSLAM系统,在保持相近ATE指标的情况下,该系统具有更高的实时性.
同步定位与地图构建、动态环境、目标检测、轻量级网络、光流法
48
TP391(计算技术、计算机技术)
国家自然科学基金62076110
2022-09-05(万方平台首次上网日期,不代表论文的发表时间)
共10页
187-195,205