
COG:利用过去的经验学习多功能机器人的框架!
3个要点
✔️提出一个COG,使用Prior数据和Task数据来学习一个更通用的政策。
✔️提出一种简单有效的方法,使用Offline RL。
✔️ 与其他方法相比,实现了更高的任务成功率。
COG: Connecting New Skills to Past Experience with Offline Reinforcement Learning
written by Avi Singh, Albert Yu, Jonathan Yang, Jesse Zhang, Aviral Kumar, Sergey Levine
(Submitted on 27 Oct 2020)
Comments: Accepted to CoRL2020, Source code and videos available at this https URL
Subjects: Machine Learning (cs.LG); Robotics (cs.RO)![]()
![]()
![]()
首先
在这篇文章中,我们介绍了一篇题为"COG:用离线强化学习将新技能与过去的经验联系起来"的论文。"RL(强化学习)的问题是它缺乏通用性。例如,如果一个机器人学会了从抽屉中检索物体的任务,而抽屉是打开的,如果测试时抽屉是关闭的,它将无法解决任务。如果我们能够学习各种情况下的政策,我们也许能够解决这些问题,但这将增加学习成本。在本文中,我们主要讨论的是,如果有过去收集到的交互数据,即使测试时抽屉是关闭的,机器人是否可以打开抽屉并取出物品。这是本文的重点。在这篇文章中,我将展示离线RL如何将大量的过去数据与特定任务数据结合起来,以学习更通用的策略,这种方法叫做通过Offlien RL进行通用化的连接技能(COG)。本演讲将介绍
要阅读更多。
你需要在AI-SCHOLAR注册。
或与本文相关的类别