10.3778/j.issn.1673-9418.2112052
轻量化高精度双通道注意力机制模块
目前大多数注意力机制模块在提高深度学习模型应用精度的同时也带来了模型复杂度的增加.针对这一问题,提出了一种轻量化高精度双通道注意力机制模块(EDCA).EDCA将特征图分别沿通道、宽度和高度三个方向压缩并重新排列组合,采用一维卷积获取组合后的权重信息,接着将权重信息分割并应用于对应维度以获得特征关注度.在图像分类数据集miniImageNet与目标检测数据集Pascal VOC2007上对EDCA进行充分实验,实验结果表明,与SENet、CBAM、SGE、ECA-Net、Coordinate Attention相比,EDCA所需的计算量以及参数量更少.在miniImageNet数据集上使用ResNet50+EDCA时,Top-1精度较以上方法分别提升0.0243、0.0218、0.0221、0.0225、0.0141;在Pascal VOC2007数据集上使用MobileNetV3+YOLOv4+EDCA时,AP50较SENet、CBAM、ECA-Net、Coordinate Attention分别提升0.0094、0.0046、0.0059、0.0014.
注意力机制、一维卷积、图像分类、目标检测
17
TP391(计算技术、计算机技术)
国家自然科学基金;甘肃省科技计划资助项目
2023-04-10(万方平台首次上网日期,不代表论文的发表时间)
共11页
857-867