10.13338/j.issn.1006-8341.2019.04.007
一种改进的用于服装解析的自监督网络学习方法
针对现有的服装解析算法在复杂背景下分割准确率较低,依赖姿态估计等问题,提出一种基于深度卷积神经网络的自监督服装解析方法(Deeplabv2-SSL),即在Deeplabv2网络中注入一种自监督的结构敏感学习算法.新的算法在训练过程中不需要标注任何人体关节信息,直接从像素标签中学习人体更高层次的信息,利用学习到的人体关节信息更好地定位服装分割的区域,降低了姿态估计过程中的损失.实验表明,Deeplabv2-SSL网络可以有效地解析服装中人体的个别部位以及服装区域.测试过程中总体像素精度大约83.37%,平均像素精度大约52.53%,较其他语义分割模型性能更佳.
服装解析、语义分割、深度卷积神经网络、自监督学习、姿态估计
32
TS941;TP391.41
陕西省科技厅自然科学基金;陕西省科技厅国际科技合作与交流计划
2020-04-24(万方平台首次上网日期,不代表论文的发表时间)
共9页
385-392,410