10.16208/j.issn1000-7024.2021.03.030
粗精结合的室内机器人视觉定位方法
为实现室内机器人自身精准定位,提出一种由粗匹配到精定位相融合的视觉定位方法.利用搭载在机器人上方的1台相机观测室内天花板、水平方向的4台相机观测周边环境,得到当前环境特征形成指纹信息库.定位时,将测试图像的周边环境信息与信息库中对应的信息粗匹配,得到机器人粗略位置;使用改进的GMS算法对测试图像及粗匹配结果中对应的天花板图像进行拼接,计算距离差与偏转度,得到精确位置.实验结果表明,该方法位移误差可控制在4 cm之内,偏转角误差在2.4°之内;对光照变化、行人闯入等情况鲁棒性明显,定位精度优于O RB视觉定位及指纹定位方法.
室内定位、特征匹配优化、图像拼接、特征提取、指纹信息
42
TP212.9;TP391.1;TP242.6(自动化技术及设备)
吉林省科技厅基金项目20180201042GX
2021-04-02(万方平台首次上网日期,不代表论文的发表时间)
共9页
805-813