基于深度卷积特征的影像关系表创建方法
在从运动恢复结构(structure from motion,SfM)的过程中,无序影像间的匹配非常耗时,一方面受制于特征匹配本身,另一方面受制于大量的图像间匹配,其计算复杂度为0(n2).为减少匹配次数,本文提出基于深度卷积特征(deep convolution feature,DCF)的影像关系表创建方法.首先利用在ImageNet上训练好的VGG-16卷积神经网络提取影像的卷积层特征图,然后对特征图进行和池化操作,最后将该向量归一化,作为图像的特征.通过向量点乘,计算数据集中的每张影像和其余所有影像的相似度,选取相似度最大的10张影像作为影像的潜在匹配像对,并由此构建影像关系表.结果表明,本文提出的DCF能够有效的创建影像关系表,找出潜在匹配像对.在Urban和South Building数据集上,基于DCF创建的关系表匹配的SfM重建的结果和穷举匹配的重建结果基本一致,但匹配次数分别减少97.4%和92.1%.同时基于DCF创建的关系表优于主流ORB-SLAM2系统中的DBoW3创建的关系表.
深度卷积特征、影像关系表、从运动恢复结构、迁移学习
47
P237(摄影测量学与测绘遥感)
国家自然科学基金41571432
2018-11-23(万方平台首次上网日期,不代表论文的发表时间)
共10页
882-891