融合深度图像与密度聚类的下一最佳测量位姿确定方法
针对机器人视觉自动测量中的下一最佳测量位姿确定问题,提出一种融合深度图像与密度聚类方法.该方法采用结构光双目视觉测量技术获得初始视角下被测物体的深度图像和三维点云数据,基于深度图像信息快速获取被测物体的边缘与密度聚类分析区域,基于密度聚类方法判定区域的复杂程度,进一步结合视场要求计算子区域权重,获得下一视场的最佳移动方向.利用趋势面分析预测下一最佳测量位姿的空间范围,采用深度图像信息获得趋势面分析全局区域,并快速获得中心趋势线的空间数据以确定下一最佳测量位姿.建立了Universal Robot 5 (UR5)机器人和视觉测量平台,对胡巴和海盗头像模型进行测量实验,验证了所提方法的有效性.
机器人视觉;自动测量;深度图像;密度聚类;下一最佳测量位姿
27
TP391(计算技术、计算机技术)
国家科技支撑计划;福建省产学研资助项目;福建省引导性资助项目;福建省引导性资助项目
2022-01-12(万方平台首次上网日期,不代表论文的发表时间)
共10页
3138-3147