融合约束学习的图像字幕生成方法
目的 图像字幕生成是一个涉及计算机视觉和自然语言处理的热门研究领域,其目的是生成可以准确表达图片内容的句子.在已经提出的方法中,生成的句子存在描述不准确、缺乏连贯性的问题.为此,提出一种基于编码器—解码器框架和生成式对抗网络的融合训练新方法.通过对生成字幕整体和局部分别进行优化,提高生成句子的准确性和连贯性.方法 使用卷积神经网络作为编码器提取图像特征,并将得到的特征和图像对应的真实描述共同作为解码器的输入.使用长短时记忆网络作为解码器进行图像字幕生成.在字幕生成的每个时刻,分别使用真实描述和前一时刻生成的字幕作为下一时刻的输入,同时生成两组字幕.计算使用真实描述生成的字幕和真实描述本身之间的相似性,以及使用前一时刻的输出生成的字幕通过判别器得到的分数.将二者组合成一个新的融合优化函数指导生成器的训练.结果 在CUB-200数据集上,与未使用约束器的方法相比,本文方法在BLEU-4、BLEU-3、BLEI-2、BLEU-1、ROUGE-L和METEOR等6个评价指标上的得分分别提升了0.8%、1.2%、1.6%、0.9%、1.8%和1.0%.在Oxford-102数据集上,与未使用约束器的方法相比,本文方法在CIDEr、BLEU-4、BLEU-3、BLEU-2、BLEU-1、ROUGE-L和METEOR等7个评价指标上的得分分别提升了3.8%、1.5%、1.7%、1.4%、1.5%、0.5%和0.1%.在MSCOCO数据集上,本文方法在BLEU-2和BLEU-3两项评价指标上取得了最优值,分别为50.4%和36.8%.结论 本文方法将图像字幕中单词前后的使用关系纳入考虑范围,并使用约束器对字幕局部信息进行优化,有效解决了之前方法生成的字幕准确度和连贯度不高的问题,可以很好地用于图像理解和图像字幕生成.
图像字幕生成、约束学习、强化学习、生成式对抗网络、融合训练
25
TP301.6(计算技术、计算机技术)
国家自然科学基金项目61632007,61502139
2020-06-22(万方平台首次上网日期,不代表论文的发表时间)
共10页
333-342