10.16798/j.issn.1003-0530.2019.12.005
引入注意力机制的视频声源定位
在日常生活中视觉事件通常伴随着声音的产生.这表明视频流与音频之间存在某种潜在的联系,本文称之为音视频同步的联合表达.本文将视频流与音频融合并通过训练所设计的神经网络预测视频流和音频是否在时间上同步来学习这种联合表达.与传统音视频信息融合方法不同,本文引入注意力机制,利用视频特征与音频特征的皮尔森相关系数在时间维度和空间维度同时对视频流加权,使视频流与音频关联更加紧密.基于学习到的音视频同步的联合表达,本文进一步利用类激活图方法进行视频声源定位.实验结果表明,所提出的引入注意力机制的音视频同步检测模型可以更好地判定给定的音视频是否同步,即更好地学习到音视频同步的联合表达,从而也可以有效地定位视频声源.
音视频、同步检测、声源定位
35
TN912
湖北省自然科学基金面上基金项目2019CFB512
2020-04-29(万方平台首次上网日期,不代表论文的发表时间)
共10页
1969-1978