10.16526/j.cnki.11-4762/tp.2020.07.043
基于多尺度特征融合模型的遥感图像建筑物分割
针对传统深度网络模型难以精确提取建筑物边缘轮廓特征及对不同尺寸建筑物无法自适应提取的问题,提出一种膨胀卷积特征提取的多尺度特征融合深度神经网络模型(multiscale-feature fusion deep neural networks with dilated convolution,MDNNet)对遥感图像建筑物自动分割的方法;首先在ResNet101模型中引入膨胀卷积扩大提取视野保留更多特征图像分辨率;其次利用多尺度特征融合模块获取多个尺度的建筑物特征并将不同尺度的特征融合;最终利用特征解码模块将特征图恢复到原始输入图像尺寸,实现遥感图像建筑物精确分割;在WHU遥感图像数据集的实验结果表明,提出模型有效克服道路、树木和阴影等因素影响,分割结果有效保留建筑物边界细节信息,有效提升分割精度,像素准确率PA达到0.864,平均交并比mIoU达到0.815,召回率Recall达到0.862.
遥感图像、建筑物分割、深度神经网络、膨胀卷积、多尺度特征融合
28
P236(摄影测量学与测绘遥感)
国家自然科学基金项目61803293
2020-08-07(万方平台首次上网日期,不代表论文的发表时间)
共6页
214-219