图注意力网络的场景图到图像生成模型
目的 目前文本到图像的生成模型仅在具有单个对象的图像数据集上表现良好,当一幅图像涉及多个对象和关系时,生成的图像就会变得混乱.已有的解决方案是将文本描述转换为更能表示图像中场景关系的场景图结构,然后利用场景图生成图像,但是现有的场景图到图像的生成模型最终生成的图像不够清晰,对象细节不足.为此,提出一种基于图注意力网络的场景图到图像的生成模型,生成更高质量的图像.方法 模型由提取场景图特征的图注意力网络、合成场景布局的对象布局网络、将场景布局转换为生成图像的级联细化网络以及提高生成图像质量的鉴别器网络组成.图注意力网络将得到的具有更强表达能力的输出对象特征向量传递给改进的对象布局网络,合成更接近真实标签的场景布局.同时,提出使用特征匹配的方式计算图像损失,使得最终生成图像与真实图像在语义上更加相似.结果 通过在包含多个对象的COCO-Stuff图像数据集中训练模型生成64×64像素的图像,本文模型可以生成包含多个对象和关系的复杂场景图像,且生成图像的Inception Score为7.8左右,与原有的场景图到图像生成模型相比提高了0.5.结论 本文提出的基于图注意力网络的场景图到图像生成模型不仅可以生成包含多个对象和关系的复杂场景图像,而且生成图像质量更高,细节更清晰.
场景图生成图像、图注意力网络、场景布局、特征匹配、级联细化网络
25
TP391(计算技术、计算机技术)
国家自然科学基金项目;江西省自然科学基金项目
2020-10-20(万方平台首次上网日期,不代表论文的发表时间)
共13页
1591-1603