6月19日,应学院与科研处邀请,上海财经大学周帆副教授在线上为我院师生作了题为“Recent Advances in Distributional Reinforcement Learning”的学术报告,会议由我院副院长崔连标教授主持,学院部分师生参加了会议。
在报告中,周帆副教授指出尽管过去几年分布式强化学习(DRL)已被广泛研究,但少有学者探讨在分布式设置中获得Q函数估计器的有效性。周老师的研究团队通过一系列创新工作,成功确保了获得的分位数估计的单调性和理论必要性。除了Q函数估计器的有效性外,研究团队还对Q函数内部的近似误差如何影响DRL中的整体训练过程进行了全面分析。他们发现,这些近似误差可能导致训练过程中的偏差和方差增加,从而影响最终的性能。为解决这一问题,研究团队从理论上证明了减少这些误差项中的偏差和方差技术,提高了DRL算法的性能。
周老师以其深刻的见解和丰富的研究经验,为我们展示了强化学习最新发展和未来趋势,与会师生纷纷表示受益匪浅。
(撰稿:胡玉乐审核:崔连标)