基于视觉区域聚合与双向协作的端到端图像描述生成
近几年,?基于Transformer的预训练模型展现了强大的模态表征能力,?促使了多模态的下游任务(如图像描述生成任务)正朝着完全端到端范式的趋势所转变,?并且能够使得模型获得更好的性能以及更快的推理速度.?然而,该技术所提取的网格型视觉特征中缺乏区域型的视觉信息,?从而导致模型对对象内容的描述不精确.?因此,?预训练模型在图像描述生成任务上的适用性在很大程度上仍有待探索.?针对这一问题,?提出一种基于视觉区域聚合与双向协作学习的端到端图像描述生成方法(visual?region?aggregation?and?dual-level?collaboration,?VRADC).?为了学习到区域型的视觉信息,?设计了一种视觉区域聚合模块,?将有相似语义的网格特征聚合在一起形成紧凑的视觉区域表征.?接着,?双向协作模块利用交叉注意力机制从两种视觉特征中学习到更加有代表性的语义信息,?进而指导模型生成更加细粒度的图像描述文本.?基于MSCOCO和Flickr30k两个数据集的实验结果表明,?所提的VRADC方法能够大幅度地提升图像描述生成的质量,?实现了最先进的性能.
图像描述、端到端训练、预训练模型、视觉区域聚合、双向协作
34
TP391(计算技术、计算机技术)
国家自然科技支撑计划;国家自然科学基金;国家自然科学基金;国家自然科学基金;国家自然科学基金
2023-05-11(万方平台首次上网日期,不代表论文的发表时间)
共18页
2152-2169