10.13873/J.1000-9787(2024)01-0044-04
基于改进YOLO6D的单目位姿估计算法研究
针对当前基于单目RGB图像的杂乱场景中低纹理物体6D位姿估计算法精度不高、实时性不强、模型复杂等问题,提出了一种基于改进YOLO6D的物体位姿估计算法.用纯卷积神经网络ConvNeXt替换原算法的主干网络DarkNet-19,将网络输出经过空间金字塔池化(SPP)处理后上采样,与低层特征图拼接实现特征融合,以提高网络的特征提取能力和多尺度能力.基于Focal Loss改进损失函数以提升网络的学习能力.根据物体的先验尺寸信息和几何特征,推导出更多的2D-3D点对以提高透视投影变换PnP算法的解算精度.在LINEMOD数据集上进行了实验,实验结果表明:以2D重投影5像素阈值为指标,本文算法在12个实验对象上的平均精度达到了 95.60%,相较原算法提升了 8.14个百分点,耗时约为60ms,性能显著提升.
6D位姿估计、单目视觉、ConvNeXt、PnP算法
43
TP391.4(计算技术、计算机技术)
2024-01-17(万方平台首次上网日期,不代表论文的发表时间)
共5页
44-47,51