10.19678/j.issn.1000-3428.0065255
结合对比感知损失和融合注意力的图像去雾模型
基于深度学习的图像去雾方法主要是通过增加网络的深度或宽度来提升算法的性能,但是这样需要更多的计算资源,并且现有的去雾模型仅将无雾图像作为正样本来指导网络的训练,未能充分利用负样本即雾天图像.为了进一步利用雾天图像和无雾图像对之间的特征差异,并且更灵活地处理不同尺度、位置、范围、角度等区域特征,对重要的特征赋予更大的权重,在DehazeFormer-T模型基础上加入对比感知损失和融合注意力机制,提出改进的CFFormer模型.以L1损失函数度量真实图像和预测图像之间的重建损失,采用对比感知损失函数提取固定的预训练网络VGG16的权重,提升对比学习的能力,并将真实无雾图像和雾天图像分别作为正负样本,拉近预测图像和清晰图像,同时推远有雾图像.此外,将尺度注意力、空间注意力和通道注意力进行融合,在特征图的不同维度上分别应用注意力机制,使网络关注更重要的信息.实验结果表明,CFFormer在RESIDE的ITS数据集上PSNR和SSIM指标比DehazeFormer-T分别提高9.4%和0.6%,验证了模型的有效性.
图像去雾、深度学习、DehazeFormer模型、CFFormer模型、对比感知损失、融合注意力
49
TP391.41(计算技术、计算机技术)
国家自然科学基金61762025
2023-10-11(万方平台首次上网日期,不代表论文的发表时间)
共8页
207-214