多尺度深度特征融合的变化检测
目的 图像的变化检测是视觉领域的一个重要问题,传统的变化检测对光照变化、相机位姿差异过于敏感,使得在真实场景中检测结果较差.鉴于卷积神经网络(convolutional neural networks,CNN)可以提取图像中的深度语义特征,提出一种基于多尺度深度特征融合的变化检测模型,通过提取并融合图像的高级语义特征来克服检测噪音.方法 使用VGG(visual geometry group) 16作为网络的基本模型,采用孪生网络结构,分别从参考图像和查询图像中提取不同网络层的深度特征.将两幅图像对应网络层的深度特征拼接后送入一个编码层,通过编码层逐步将高层与低层网络特征进行多尺度融合,充分结合高层的语义和低层的纹理特征,检测出准确的变化区域.使用卷积层对每一个编码层的特征进行运算产生对应尺度的预测结果.将不同尺度的预测结果融合得到进一步细化的检测结果.结果 与SC_SOBS(SC-self-organizing background subtraction)、SuBSENSE(self-balanced sensitivity segmenter)、FGCD(fine-grained change detection)和全卷积网络(fully convolutional network,FCN)4种检测方法进行对比.与性能第2的模型FCN相比,本文方法在VL_CMU_CD(visual localization of Carnegie Mellon University forchange detection)数据集中,综合评价指标F1值和精度值分别提高了12.2%和24.4%;在PCD(panoramic changedetection)数据集中,F1值和精度值分别提高了2.1%和17.7%;在CDnet(change detection net)数据集中,F1值和精度值分别提高了8.5%和5.8%.结论 本文提出的基于多尺度深度特征融合的变化检测方法,利用卷积神经网络的不同网络层特征,有效克服了光照和相机位姿差异,在不同数据集上均能得到较为鲁棒的变化检测结果.
变化检测、特征融合、多尺度、孪生网络、深度学习
25
TP391(计算技术、计算机技术)
国家自然科学基金项目;中国民航大学中央高校基金项目
2020-06-22(万方平台首次上网日期,不代表论文的发表时间)
共10页
669-678