场景视点偏移的激光雷达点云分割
目的 激光雷达采集的室外场景点云数据规模庞大且包含丰富的空间结构细节信息,但是目前多数点云分割方法并不能很好地平衡结构细节信息的提取和计算量之间的关系.一些方法将点云变换到多视图或体素化网格等稠密表示形式进行处理,虽然极大地减少了计算量,但却忽略了由激光雷达成像特点以及点云变换引起的信息丢失和遮挡问题,导致分割性能降低,尤其是在小样本数据以及行人和骑行者等小物体场景中.针对投影过程中的空间细节信息丢失问题,根据人类观察机制提出了一种场景视点偏移方法,以改善三维(3D)激光雷达点云分割结果.方法 利用球面投影将3D点云转换为2维(2D)球面正视图(spherical front view,SFV).水平移动SFV的原始视点以生成多视点序列,解决点云变换引起的信息丢失和遮挡的问题.考虑到多视图序列中的冗余,利用卷积神经网络(convolutional neural networks,CNN)构建场景视点偏移预测模块来预测最佳场景视点偏移.结果 添加场景视点偏移模块后,在小样本数据集中,行人和骑行者分割结果改善相对明显,行人和骑行者(不同偏移距离下)的交叉比相较于原方法最高提升6.5%和15.5%.添加场景视点偏移模块和偏移预测模块后,各类别的交叉比提高1.6%3%.在公用数据集KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute)上与其他算法相比,行人和骑行者的分割结果取得了较大提升,其中行人交叉比最高提升9.1%.结论 本文提出的结合人类观察机制和激光雷达点云成像特点的场景视点偏移与偏移预测方法易于适配不同的点云分割方法,使得点云分割结果更加准确.
点云分割;球面正视图(SFV);场景视点偏移;场景视点偏移预测;卷积神经网络(CNN)
26
TP399(计算技术、计算机技术)
国家重点研发计划项目;国家自然科学基金项目
2021-10-28(万方平台首次上网日期,不代表论文的发表时间)
共10页
2514-2523