改进Inception-v3网络的手势图像识别
鉴于Inception-v3网络参数量过大的问题,本文提出了一种有效的手势图像识别方法,能够满足在模型参数量较少的情况下高精度手势识别的需求.本文利用Inception-v3的结构,对原Inception-v3的Inception模块重新进行设计,降低学习的参数量和难度,结合残差连接,保护信息的完整性,防止网络退化,引入注意力机制模块,让模型聚焦于有用的信息而淡化无用信息,在一定程度上也防止了模型的过拟合,并且在模型中进行上采样与低层特征进行特征融合,融合后的特征比原输入特征更具有判别能力,进一步提高模型的准确率.实验结果表明改进的Inception-v3网络的参数量仅为1.65 M,而且拥有更高的准确率和更快的收敛速度.将ASL手语数据集与孟加拉手语数据集分别打乱,然后按照4:1的比例单独划分出训练集和验证集.改进的Inception-v3在ASL手语数据集与孟加拉手语数据集上的识别率分别达到了100%和95.33%.
手语识别、Inception-v3网络、注意力机制模块、上采样、特征融合、深度学习、卷积神经网络(CNN)
31
TP391.41;TP183;TP751
国家自然科学基金;浙江理工大学博士科研启动项目;国家级大学生创新创业训练计划项目;浙江理工大学大学生科创项目;浙江理工大学信息学院教育教学改革研究项目
2022-11-16(万方平台首次上网日期,不代表论文的发表时间)
共10页
157-166