引入辅助损失的多场景车道线检测
目的 为解决实时车辆驾驶中因物体遮挡、光照变化和阴影干扰等多场景环境影响造成的车道线检测实时性和准确性不佳的问题,提出一种引入辅助损失的车道线检测模型.方法 该模型改进了有效的残差分解网络(effcient residual factorized network,ERFNet),在ERFNet的编码器之后加入车道预测分支和辅助训练分支,使得解码阶段与车道预测分支、辅助训练分支并列,并且在辅助训练分支的卷积层之后,利用双线性插值来匹配输入图像的分辨率,从而对4条车道线和图像背景进行分类.通过计算辅助损失,将辅助损失以一定的权重协同语义分割损失、车道预测损失进行反向传播,较好地解决了梯度消失问题.语义分割得到每条车道线的概率分布图,分别在每条车道线的概率分布图上按行找出概率大于特定阈值的最大点的坐标,并按一定规则选取相应的坐标点,形成拟合的车道线.结果 经过在CULane公共数据集上实验测试,模型在正常场景的F1指标为91.85%,与空间卷积神经网络(spatial convolutional neural network,SCNN)模型相比,提高了1.25%,比其他场景分别提高了1%~7%;9种场景的F1平均值为73.76%,比目前最好的残差网络——101-自注意力蒸馏(ResNet-101-self attention distil-lation,R-101-SAD)模型(71.80%)高出1.96%.在单个GPU上测试,每幅图像的平均运行时间缩短至原来1/13,模型的参数量减少至原来的1/10.与平均运行时间最短的车道线检测模型ENet——自注意力蒸馏(ENetself attention distillation,ENet-SAD)相比,单幅图像的平均运行时间减短了2.3 ms.结论 在物体遮挡、光照变化、阴影干扰等多种复杂场景下,对于实时驾驶车辆而言,本文模型具有准确性高和实时性好等特点.
多场景车道线检测、语义分割网络、辅助损失、梯度消失、CULane数据集
25
TP391(计算技术、计算机技术)
山西省自然科学基金项目;山西省应用基础研究项目
2020-10-19(万方平台首次上网日期,不代表论文的发表时间)
共12页
1882-1893