10.3969/j.issn.1000-3428.2014.06.045
基于RDC-Q学习算法的移动机器人路径规划
传统Q算法对于机器人回报函数的定义较为宽泛,导致机器人的学习效率不高.为解决该问题,给出一种回报详细分类Q(RDC-Q)学习算法.综合机器人各个传感器的返回值,依据机器人距离障碍物的远近把机器人的状态划分为20个奖励状态和15个惩罚状态,对机器人每个时刻所获得的回报值按其状态的安全等级分类,使机器人趋向于安全等级更高的状态,从而帮助机器人更快更好地学习.通过在一个障碍物密集的环境中进行仿真实验,证明该算法收敛速度相对传统回报Q算法有明显提高.
路径规划、移动机器人、强化学习、Q学习算法、回报函数、学习效率
40
TP301.6(计算技术、计算机技术)
2014-08-12(万方平台首次上网日期,不代表论文的发表时间)
共4页
211-214