基于视觉注意模型VAMAI的敏感图像检测方法
基于内容的敏感图像检测方法是过滤互联网上敏感信息的有效手段.然而,基于全局特征的检测方法误检率偏高,现有的基于BoW(bag-of-visual-words)的检测方法速度较慢.为了快速准确地检测敏感图像,本文提出基于视觉注意模型VAMAI(visual attention model for adult images)的敏感图像检测方法,包括构造面向敏感图像的视觉注意模型VAMAI、基于兴趣区域和SURF(speeded up robust features)的视觉词表算法、全局特征选择及其与BoW的融合三部分.首先,结合显著图模型、肤色分类模型和人脸检测模型,构造VAMAI,用于较准确地提取兴趣区域.然后,基于兴趣区域和SURF构建视觉词表,用于提高基于BoW的检测方法的检测速度与检测精度.最后,比较多种全局特征的性能,从中选择颜色矩,将它与BoW的支持向量机分类结果进行后融合.实验结果表明:VAMAI能够较准确地检测兴趣区域;从检测速度和检测精度两方面显著地提高了敏感图像的检测性能.
敏感图像检测、视觉注意模型、兴趣区域、视觉单词、SURF特征
16
TP391.41(计算技术、计算机技术)
国家重点基础研究发展计划973项目2007CB311100;国家自然科学基金项目60873165,60802028;北京市科技新星计划项目2007B071;北京市教育委员会共建项目专项资助
2011-11-30(万方平台首次上网日期,不代表论文的发表时间)
共8页
1226-1233