10.13338/j.issn.1006-8341.2021.02.009
基于改进的SSD深度学习算法的双目视觉纱筒识别定位
针对纺织厂转型升级过程中,传统视觉技术对于多种颜色纱筒识别定位准确率较低的问题,提出了一种新的双目视觉纱筒识别定位方法.首先,用MobileNet V3替换VGG16作为改进SSD(single shot multibox detector)深度学习算法的主干特征提取网络,并引入特征融合模块,提升了网络浅层的特征提取能力;其次,利用双目相机采集的左侧纱筒图像作为数据集,完成改进SSD深度学习算法的训练和测试;最后,将双目校正的纱筒图像输入算法进行识别,并通过双目视觉技术实现纱筒的定位.实验结果表明,改进SSD深度学习算法的识别平均精度达到了94.6%,每秒传输帧数达到了52.3,双目定位的平均误差为1.63%.
纱筒识别定位、深度学习、SSD算法、双目视觉、特征融合
34
TP391.4;TS103.7(计算技术、计算机技术)
陕西省重点研发计划项目;协同创新项目
2021-07-13(万方平台首次上网日期,不代表论文的发表时间)
共8页
59-66