赶上最新的AI论文

COG:利用过去的经验学习多功能机器人的框架!

COG:利用过去的经验学习多功能机器人的框架!

强化学习

3个要点
✔️提出一个COG,使用Prior数据和Task数据来学习一个更通用的政策。
✔️提出一种简单有效的方法,使用Offline RL。
✔️ 与其他方法相比,实现了更高的任务成功率。

COG: Connecting New Skills to Past Experience with Offline Reinforcement Learning
written by Avi SinghAlbert YuJonathan YangJesse ZhangAviral KumarSergey Levine
(Submitted on 27 Oct 2020)

Comments: Accepted to CoRL2020Source code and videos available at this https URL
Subjects: Machine Learning (cs.LG); Robotics (cs.RO)
  
 

首先

在这篇文章中,我们介绍了一篇题为"COG:用离线强化学习将新技能与过去的经验联系起来"的论文。"RL(强化学习)的问题是它缺乏通用性。例如,如果一个机器人学会了从抽屉中检索物体的任务,而抽屉是打开的,如果测试时抽屉是关闭的,它将无法解决任务。如果我们能够学习各种情况下的政策,我们也许能够解决这些问题,但这将增加学习成本。在本文中,我们主要讨论的是,如果有过去收集到的交互数据,即使测试时抽屉是关闭的,机器人是否可以打开抽屉并取出物品。这是本文的重点。在这篇文章中,我将展示离线RL如何将大量的过去数据与特定任务数据结合起来,以学习更通用的策略,这种方法叫做通过Offlien RL进行通用化的连接技能(COG)。本演讲将介绍

要阅读更多。

你需要在AI-SCHOLAR注册。

1分钟内免费轻松注册

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们