10.3969/j.issn.1001-3881.2023.17.006
基于梯度奖励的深度强化学习移动机器人路径规划
针对目前深度强化学习移动机器人路径规划中稀疏奖励导致的效率低、收敛慢等问题,提出一种梯度奖励政策.使用区域分割将环境分割为缓冲区、探索区、临近区以及目标区,奖励的动态变化可以逐步缩小机器人的探索范围,同时在安全区域内也能获得正向奖励.首先输入机器人当前的位置坐标,经过神经网络后估计 4 个动作的Q值,随后通过去首动态贪婪策略达到最大化探索,最后采用基于均方误差的优先经验回放抽取样本进行梯度下降更新网络.实验结果表明:在小范围环境内探索效率可提升近 40%,在大范围环境下成功率高于 80%,而且在提高探索效率的同时增强了鲁棒性.
深度强化学习、路径规划、梯度奖励、区域分割、去首动态贪婪策略
51
TP242(自动化技术及设备)
2023-10-10(万方平台首次上网日期,不代表论文的发表时间)
共7页
32-38