10.7544/issn1000-1239.2021.20210195
基于融合多尺度标记信息的深度交互式图像分割
现有深度交互式图像分割算法通过对单击点计算距离映射或者高斯映射,然后将其与图像进行拼接作为网络的输入.每个单击点的影响范围是相同的,而每个交互的目的 并不相同,早期交互的主要目的 为选择,后期则更侧重微调.基于此,提出了融合多尺度标记信息的深度交互图像分割算法.首先,通过设置不同高斯半径,对每个单击点计算2组不同尺度的高斯映射.然后,融合小尺度高斯映射,并移除基础分割网络中的部分下采样模块,使网络提取更丰富的细节特征.同时,为了保持目标分割结果的完整性,提出了非局部特征注意力模块,该模块融合了大尺度高斯映射.最后,根据高斯映射提供的概率信息,提出了概率单击损失,提升目标在单击附近的分割表现.实验结果表明:提出的算法既·能保持分割的完整性,又能得到目标细节的分割结果,大大降低了用户的交互负担.
交互式图像分割;深度学习;多尺度标记;高斯映射;概率单击损失
58
TP391(计算技术、计算机技术)
国家自然科学基金项目;江苏省自然科学基金项目;中国博士后科学基金项目
2021-09-09(万方平台首次上网日期,不代表论文的发表时间)
共13页
1705-1717