基于最优支持度的证据融合表情识别方法
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.13382/j.jemi.2016.05.007

基于最优支持度的证据融合表情识别方法

引用
为了实现多区域表情特征的决策级融合,提出一种基于最优支持度的表情证据融合方法.首先,将眉毛、眼睛、嘴巴3个显著区域的纹理特征作为表情分类证据,并采用指数函数构建各证据的初始基本概率分配;然后,在有监督学习下构建证据支持度的优化式,同时将权重求解转化为同类样本支持度的最大化和异类样本支持度的最小化,并对初始基本概率分配进行修正;最后,基于登普斯特-谢弗(Dempster-Shafer,D-S)证据理论实现三区域证据的决策融合.该算法在CohnKanade库上进行实验,取得了94.2%的平均识别率以及752 ms的平均识别时间.与现有的决策融合和分类方法相比,特别提高了害怕、伤心、厌恶等不易分类表情的识别率.所提方法不仅具有较高分类识别率,而且对各表情分类保持较好鲁棒性.

多证据融合、表情识别、登普斯特-谢弗证据理论、最优支持度

30

TP391(计算技术、计算机技术)

国家自然科学青年基金61300119;安徽省重点实验室开放课题ACAIM160106;安徽省教育厅自然科学研究项目AQKJ2015B014

2016-08-17(万方平台首次上网日期,不代表论文的发表时间)

共8页

714-721

相关文献
评论
暂无封面信息
查看本期封面目录

电子测量与仪器学报

1000-7105

11-2488/TN

30

2016,30(5)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn