面向多模态自监督特征融合的音视频对抗对比学习
目的 同一视频中的视觉与听觉是两个共生模态,二者相辅相成,同时发生,从而形成一种自监督模式.随着对比学习在视觉领域取得很好的效果,将对比学习这一自监督表示学习范式应用于音视频多模态领域引起了研究人员的极大兴趣.本文专注于构建一个高效的音视频负样本空间,提高对比学习的音视频特征融合能力.方法 提出了面向多模态自监督特征融合的音视频对抗对比学习方法:1)创新性地引入了视觉、听觉对抗性负样本集合来构建音视频负样本空间;2)在模态间与模态内进行对抗对比学习,使得音视频负样本空间中的视觉和听觉对抗性负样本可以不断跟踪难以区分的视听觉样本,有效地促进了音视频自监督特征融合.在上述两点基础上,进一步简化了音视频对抗对比学习框架.结果 本文方法在Kinetics-400数据集的子集上进行训练,得到音视频特征.这一音视频特征用于指导动作识别和音频分类任务,取得了很好的效果.具体来说,在动作识别数据集UCF-101和HMDB-51(human metabolome database)上,本文方法相较于Cross-AVID(cross-audio visual instance dis-crimination)模型,视频级别的TOP1准确率分别高出了0.35%和0.83%;在环境声音数据集ECS-50上,本文方法相较于Cross-AVID模型,音频级别的TOP1准确率高出了2.88%.结论 音视频对抗对比学习方法创新性地引入了视觉和听觉对抗性负样本集合,该方法可以很好地融合视觉特征和听觉特征,得到包含视听觉信息的音视频特征,得到的特征可以提高动作识别、音频分类任务的准确率.
自监督特征融合、对抗对比学习、音视频多模态、视听觉对抗性负样本、预训练
28
TP37(计算技术、计算机技术)
国家自然科学基金61972127
2023-02-09(万方平台首次上网日期,不代表论文的发表时间)
共16页
317-332