10.3778/j.issn.1673-9418.2012063
融合转置卷积与深度残差图像语义分割方法
针对深度学习图像语义分割方法中存在分割精度低、损失率高的问题,提出了融合转置卷积与深度残差图像语义分割方法.首先,为了解决神经网络深度增加引起分割精度下降、收敛速度慢的问题,设计一种深度残差学习模块来提升网络的训练效率和收敛速度;然后,为了使上采样过程与特征提取过程中特征图融合精度更高,将深度残差U-net模型中UpSampling2D和转置卷积两种上采样方式进行拼接,形成新的上采样模块;最后,针对网络训练过程中训练集与验证集之间存在的权值过度拟合问题,在网络的跳跃连接层引入Dropout,增强了网络的学习能力.在CamVid数据集上对算法的性能进行了证明,算法语义分割精度达到89.93%,损失率降到0.23,与U-net模型相比,验证集精度提升了13.13个百分点,损失率降低了1.20,优于当前的图像语义分割方法.所提出的图像语义分割新模型,综合了U-net模型的优点,使得图像语义分割精度更高,语义分割的效果更好,有效提升了算法的鲁棒性.
图像语义分割、U-net模型、深度残差网络、转置卷积
16
TP391(计算技术、计算机技术)
国家自然科学基金;辽宁省自然科学基金
2022-09-22(万方平台首次上网日期,不代表论文的发表时间)
共11页
2132-2142