基于视触融合的遥操作机器人虚拟环境几何学建模修正方法
为了提高遥操作机器人虚拟环境几何学建模的精度,提出了一种基于视触融合的遥操作机器人虚拟环境几何学建模修正方法.首先基于视觉信息通过点云采集和预处理、粗细配准相结合的点云配准、表面重建、位姿测量实现了目标物的几何学建模;之后针对遥操作机器人的应用背景,设计了局部半自主和多指协同相结合的灵巧手控制方式,完成了目标物触觉点云的采集;最后采用视触融合的方法,使用KDtree将视觉点云和触觉点云进行融合,并利用视触融合点云对几何学模型进行修正.通过实验证明该方法对不同材质目标物的几何学建模的几何尺寸误差小于 3.6 mm、定位误差小于 6.8 mm、姿态角测量误差小于 4.3°,且效果均优于基于视觉信息的几何学模型和基于触觉信息的几何学模型.该方法构建的几何学模型既包括了目标物的颜色信息,又提高了几何学模型的精度,且在模型细节处表现良好,有效结合了视觉和触觉两种模态信息的优点.
遥操作机器人、几何学修正、视触融合、KDtree、虚拟环境
44
TP242;TJ765;TH-39(自动化技术及设备)
洛阳市重大科技创新专项2201007A
2023-07-10(万方平台首次上网日期,不代表论文的发表时间)
共11页
101-111