10.19557/j.cnki.1001-9944.2019.09.001
结合神经网络和Q(λ)-learning的路径规划方法
Q-learning是一种经典的增强学习算法,简单易用且不需要环境模型;广泛应用于移动机器人路径规划.但在状态空间和动作空间较大时,经典的Q-learning算-法存在学习效率低、收敛速度慢,容易陷入局部最优解等问题.通过引入神经网络模型,利用地图信息计算状态势值,从而优化了设计奖励函数.合理奖励函数为Q(λ)-learning算法提供了先验知识,避免训练中的盲目搜索,同时奖励函数激励避免了陷入局部最优解.仿真试验表明,改进的路径规划方法在收敛速度方面有很大的提升,训练得到的路径为全局最优.
路径规划、神经网络、强化学习、移动机器人、奖励函数
34
TP24;TP18(自动化技术及设备)
2019-10-24(万方平台首次上网日期,不代表论文的发表时间)
共4页
1-4