基于MIFNet的婴儿面部表情识别
婴儿面部表情智能化识别,可辅助看护人员更好地关注婴儿的身心健康.由于婴儿面部线条流畅且五官锐感偏弱导致面部表情类间相似性高于成人,为了解决类间相似性高的问题,提出多尺度信息融合网络.该网络整体分为2个阶段:在第1阶段使用融合模块在空间域与通道域双重维度下融合局部特征与全局特征,增强特征的表达能力;在第2阶段采用自适应深度中心损失,利用注意力机制估计融合特征的权重用以指导中心损失,促进婴儿表情特征的类内紧凑和类间分离.实验结果表明,多尺度信息融合网络在婴儿面部表情数据集中识别准确率达到95.46%,在AUC、召回率和F1得分3个评价指标上分别达到99.07%、95.88%和95.89%,与现有面部表情识别网络相比,识别效果最优.将多尺度信息融合网络在公开面部表情数据集上进行泛化性实验,准确率达到89.87%.
婴儿、表情识别、自适应深度中心损失、多尺度特征融合、注意力机制
32
TP391.41;TN929.5;TP183
国家自然科学基金61771340
2023-08-25(万方平台首次上网日期,不代表论文的发表时间)
共12页
42-53