10.16451/j.cnki.issn1003-6059.201904007
基于强化学习的数据驱动最优镇定控制及仿真
利用Q-学习算法,针对模型未知只有数据可用的非线性被控对象,解决最优镇定控制问题.由于状态空间和控制空间的连续性,Q-学习只能以近似的方式实现.因此,文中提出的近似Q-学习算法只能获得一个次优控制器.尽管求得的控制器只是次优,但是仿真研究表明,对于强非线性被控对象,相比线性二次型调节器和深度确定性梯度下降方法,文中方法的闭环吸引域更宽广,实际指标函数也更小.
Q-学习、数据驱动、最优控制、吸引域
32
TP273+.1(自动化技术及设备)
国家自然科学基金项目61703369;浙江省重点研发计划项目2017C03039;温州市重大科技专项项目ZS2017007
2019-05-29(万方平台首次上网日期,不代表论文的发表时间)
共8页
345-352