10.16337/j.1004?9037.2019.01.010
基于彩色-深度视频和CLDS的手语识别
提出一种基于彩色-深度视频和复线性动态系统(Complex linear dynamic system,CLDS)的手语识别方法,可以保证时序建模数据与原始数据严格对应,准确刻画手语特征,从而显著提高分类精度.利用深度视频补偿RGB视频中的缺失信息,提取手语视频运动边界直方图(Motion boundary histogram,MBH)特征,得到每种行为的特征矩阵.对特征矩阵进行CLDS时序建模,输出能唯一表示该类手语视频的描述符M=(A,C),然后利用子空间角度计算各模型之间的相似度;通过改进的K最近邻(K-nearest neighbors,KNN)算法得到最终分类结果.在中国手语数据集(Chinese sign language,CSL)上的实验表明,本文方法与现有的手语识别方法相比,具有更高的识别率.
手语识别、线性动态系统、深度视频、运动边界直方图特征、KNN分类
34
TP391(计算技术、计算机技术)
国家自然科学基金61472196,61672305;山东省重点研发计划2017GGX10127
2019-04-10(万方平台首次上网日期,不代表论文的发表时间)
共9页
91-99