用于行人轨迹预测的场景限制时空图卷积网络
目的 针对行人轨迹预测问题,已有的几种结合场景信息的方法基于合并操作通过神经网络隐式学习场景与行人运动的关联,无法直观地解释场景对单个行人运动的调节作用.除此之外,基于图注意力机制的时空图神经网络旨在学习全局模式下行人之间的社会交互,在人群拥挤场景下精度不佳.鉴于此,本文提出一种场景限制时空图卷积神经网络(scene-constrained spatial-temporal graph convolutional neural network,Scene-STGCNN).方法 Scene-STGCNN由运动模块、基于场景的微调模块、时空卷积和时空外推卷积组成.运动模块以时空图卷积提取局部行人时空特征,避免了时空图神经网络在全局模式下学习交互的局限性.基于场景的微调模块将场景信息嵌入为掩模矩阵,用来调节运动模块生成的中间运动特征,具备实际场景下的物理解释性.通过最小化核密度估计下真实轨迹的负对数似然,增强Scene-STGCNN输出的多模态性,减少预测误差.结果 实验在公开数据集ETH(包含ETH和HOTEL)和UCY(包含UNIV、ZARA1和ZARA2)上与其他7种主流方法进行比较,就平均值而言,相对于性能第 2 的模型,平均位移误差(average displacement error,ADE)值减少了 12%,最终位移误差(final displacement error,FDE)值减少了 9%.在同样的数据集上进行了消融实验以验证基于场景的微调模块的有效性,结果表明基于场景的微调模块能有效建模场景对行人轨迹的调节作用,从而减小算法的预测误差.结论 本文提出的场景限制时空图卷积网络能有效融合场景和行人运动,在学习局部模式下行人交互的同时基于场景特征对轨迹特征做实时性调节,相比于其他主流方法,具有更优的性能.
行人轨迹预测、场景空间限制、时空特征提取、时空卷积、核密度估计
28
TP391.4(计算技术、计算机技术)
2023-11-16(万方平台首次上网日期,不代表论文的发表时间)
共13页
3163-3175