10.3778/j.issn.1673-9418.2012041
融合多尺度边界特征的显著实例分割
对感兴趣的对象进行定位是计算机视觉应用的一个基础任务.显著实例分割通过对视觉上具有显著性的物体进行检测并对其进行像素级分割,可以获得感兴趣的实例类.单阶段显著实例分割网络(S4Net)为利用目标对象和其周围背景的特征分离能力,设计了一个新的区域特征抽取层ROIMasking.但由于卷积神经网络自身的特性,多次的卷积和上采样会造成实例边界信息缺失,导致边界分割粗糙,影响分割的精度.为了解决显著实例分割中的边界信息丢失问题,在S4Net的基础上借鉴目标边缘检测方法,提出了一种结合边界特征的端到端显著实例分割方法(MBCNet).该方法设计了一个多尺度融合的边界特征提取分支,利用带有混合空洞卷积和残差网络结构的边界细化模块强化对实例边界信息的提取,并通过网络共享层实现了边界信息的传递;同时,为提高分割的精度,提出了一个新的边界-分割联合损失函数,实现了在同一个网络中对目标边界特征提取分支和实例分割分支的同步训练.实验结果显示,提出的方法在saliency instance数据集上的mAP0.5和mAP0.7分别达到88.90%和67.94%,比目前主流的显著实例分割方法S4Net分别提升了2.20个百分点和4.24个百分点.
显著实例分割、边缘检测、边界细化、边界-分割联合训练
16
TP391.41(计算技术、计算机技术)
国家自然科学基金;天津市自然科学基金
2022-08-22(万方平台首次上网日期,不代表论文的发表时间)
共12页
1865-1876