10.16798/j.issn.1003-0530.2022.06.005
基于视觉注意力机制的多源遥感图像语义分割
近年来,随着空间感知技术的不断发展,对多源遥感图像的融合处理需求也逐渐增多,如何有效地提取多源图像中的互补信息以完成特定任务成为当前的研究热点.针对多源遥感图像融合语义分割任务中,多源图像的信息冗余和全局特征提取难题,本文提出一种将多光谱图像(Multispectral image,MS)、全色图像(Panchromatic image,PAN)和合成孔径雷达(Synthetic Aperture Radar,SAR)图像融合的基于Transformer的多源遥感图像语义分割模型Transformer U-Net(TU-Net).该模型使用通道交换网络(Channel-Exchanging-Network,CEN)对融合支路中的多源遥感特征图进行通道交换,以获得更好的信息互补性,减少数据冗余.同时在特征图拼接后通过带注意力机制的Transformer模块对融合特征图进行全局上下文建模,提取多源遥感图像的全局特征,并以端到端的方式分割多源图像.在MSAW数据集上的训练和验证结果表明,相比目前的多源融合语义分割算法,在F1值和Dice系数上分别提高了3.31%~11.47%和4.87%~8.55%,对建筑物的分割效果提升明显.
多源遥感图像、语义分割、图像融合、注意力机制
38
TP751.1(遥感技术)
国家自然科学基金;国家自然科学基金;中国博士后科学基金
2022-08-12(万方平台首次上网日期,不代表论文的发表时间)
共12页
1180-1191