10.3969/j.issn.1673-629X.2022.07.016
基于卷积神经网络的多模型交通场景识别研究
利用人工智能中的视觉分析技术,实现对高分辨率交通视频中出现的各个目标类别进行实时目标检测、语义分割和目标追踪.数据集结合BDD100K和Mapillary Vistas.训练中不仅对模型中的参数进行调整,还对多个模型进行改进与创新.目标检测模型使用EfficientNet-B1作为主干网络,使用ASPP与改进后的FPN作为脖颈网络,通过引入多种模型训练技巧,对模型进行优化,最终结果减少约2.3倍的参数量,在不同数据集上的准确率都有所提升.目标追踪使用DeepSort追踪算法对多个目标类别进行追踪计数.语义分割使用Encoder-Decoder结构,使用EfficientNet-B4作为主干网络,参照U-Net++网络使用卷积层作为特征提取模块,反卷积层作为上采样模块,通过联结不同大小的特征图,得到最终输出结果.将改进语义分割模型与MobileNetV2和DeeplabV3网络结合的模型进行对比,减少约1.35倍的参数量.实验证明,通过深度学习算法提取鲁棒性特征能够为自动驾驶和辅助驾驶场景中的检测识别提供便利.
目标检测、语义分割、特征提取、上采样、鲁棒性特征
32
TP391.41(计算技术、计算机技术)
自治区科技重大专项;自治区创新项目;校级创新项目
2022-08-01(万方平台首次上网日期,不代表论文的发表时间)
共6页
93-98