基于U-Net3+的高分遥感影像建筑物提取
针对传统的高分影像建筑物提取方法存在分割精度低和分割边界模糊等问题,本文提出了一种基于U-Net3+模型的建筑地物语义分割方法.该模型以U-Net网络结构为基础,首先使用全尺度的跳跃连接将不同尺度的特征图相融合;然后通过深度监督从多尺度聚合的特征图中学习特征表达,并使用交叉熵损失函数进行训练;最后根据数据集特征,调试出不同的模型参数并以此模型进行测试,以达最佳的分割效果.试验结果表明,与U-Net和U-Net++模型相比,基于该方法的影像分割精度及地物边缘分割完整度均得到了显著提升,且当设置历元为15时,精度最高.使用该方法对高分辨率遥感影像中建筑物进行的分割试验,精度达96.62%,平均交并比(mIoU)达0.9027,并减少了错分、漏分,同时也减少了模型参数,模型损失收敛速率快且缩短了训练周期,显著提升了建筑物提取精度.
地物信息提取、U-Net3+模型、全尺度跳跃连接、深度监督、精度
P237(摄影测量学与测绘遥感)
广西八桂学者专项;国家自然科学基金;广西自然科学基金项目;桂林市科技局重点项目;广西空间信息与测绘重点实验室资助
2022-07-07(万方平台首次上网日期,不代表论文的发表时间)
共5页
40-44