10.11772/j.issn.1001-9081.2019101802
基于生成对抗双网络的虚拟到真实驾驶场景的视频翻译模型
针对虚拟到真实驾驶场景翻译中成对的数据样本缺乏以及前后帧不一致等问题,提出一种基于生成对抗网络的视频翻译模型.为解决数据样本缺乏问题,模型采取"双网络"架构,将语义分割场景作为中间过渡分别构建前、后端网络.在前端网络中,采用卷积和反卷积框架,并利用光流网络提取前后帧的动态信息,实现从虚拟场景到语义分割场景的连续的视频翻译;在后端网络中,采用条件生成对抗网络框架,设计生成器、图像判别器和视频判别器,并结合光流网络,实现从语义分割场景到真实场景的连续的视频翻译.实验利用从自动驾驶模拟器采集的数据与公开数据集进行训练和测试,在多种驾驶场景中能够实现虚拟到真实场景的翻译,翻译效果明显好于对比算法.结果表明,所提模型能够有效解决前后帧不连续和动态目标模糊的问题,使翻译的视频更为流畅,并且能适应多种复杂的驾驶场景.
虚拟到真实、视频翻译、生成对抗网络、光流网络、驾驶场景
40
TP391.4(计算技术、计算机技术)
国家自然科学基金资助项目;湖北省自然科学基金资助项目;湖北省大学生创新创业训练计划项目;湖北大学楚才学院大学生科学研究项目
2020-07-01(万方平台首次上网日期,不代表论文的发表时间)
共6页
1621-1626