10.12305/j.issn.1001-506X.2021.05.07
VDAS中基于单目红外图像的深度估计方法
针对视觉辅助驾驶系统(vision-based driving assistance system,VDAS)对夜间等低能见度场景下的车辆前视深度感知需求,提出一种基于深度学习的单目红外图像深度估计方法.该方法采用端对端的多任务自监督学习框架,利用单目红外视频帧之间的立体几何约束构建损失函数,无须场景的真实深度信息.取前后两帧重投影误差的最小值,解决了单目视频帧之间的遮挡问题,同时削弱了红外图像噪点多的影响.网络解码器将多尺度深度图统一上采样到较高分辨率并计算重投影误差,改善了深度图中的空洞现象.在FLIR车载红外数据集上的定性实验表明,所提方法能利用单目红外图像得到对应的像素级稠密深度;真实道路上的分析试验表明,所提方法能够在夜间情况下利用红外图像有效感知目标物的深度信息,15 m以内的相对误差为13.2%,可以满足多数突发情况下情况下的避撞要求.
红外图像、深度估计、卷积神经网络、自监督学习
43
TP39(计算技术、计算机技术)
装备预研项目;创新基地实验室开放基金
2021-06-07(万方平台首次上网日期,不代表论文的发表时间)
共8页
1210-1217