这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

郭一璞 发自 凹非寺

量子位 报道 | 公众号 QbitAI

伯克利的研究人员最近利用视觉模型强化学习训练了一个不一样的机器人,能够通过自己的探索,完成各种任务:整理玩具、叠衣服、收拾餐具……

并且,这样一个多功能机器人的训练过程是无监督的,不需要投喂数据,完全是机器人自行摸索后学到的。

也就是说,这个机器人看了看你杂乱的房间,就自主的收拾了起来。

帮你把乱放的苹果放进盘子:

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

帮你叠起秋衣:

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

整理玩具:

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

咦,二胡卵子误入。

完成这一系列工作的,都是同一套算法。

这些神奇的技能,Yann LeCun看到都惊呼:Awesome!

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

像小朋友一样摸索世界

我们开头说过,这个机器人不需要人为投喂数据。

那么数据从哪儿来呢?从需要它工作的现实世界来。

在一个摆放了各种物体的“房间”内,可以让机器人自由摸索,感受房间里的一切,在无监督的情况下,机器人完全可以自己玩自己的。

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

除了玩杯子、玩具这些硬的东西,还可以玩“软体”的毛巾:

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

玩的过程中,机器人就通过各种传感器,学到了视觉能力,知道自己身边是什么东西;

学到了定位能力,知道自己在做什么;

学到了做不同的动作,知道自己发出不同命令后,手臂会做什么;

学会熟练使用自己的“手”,可以预测到手做什么动作会对环境中的物体产生怎样的影响。

整个探索过程没有分数、不设输赢,完全是机器人自己凭借“好奇心”,通过摸索这个房间里的物品,形成自己的一套“世界观”的过程。

派活就行,不用你教怎么干

当机器人已经对环境中的物体了如指掌之后,我们该怎么给它安排工作呢?

用像素点。

在整个环境中,通过像素点给机器人标注任务目标,红色为起始点,绿色为结束点,也就是告诉机器人把红点位置的东西搬到绿点位置。

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

机器人,你来把红点位置的苹果,挪到绿点位置的盘子上去。

机器人想了想,大概只要把苹果夹起来,把手臂挪过去,把苹果放下,就可以了把?

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

 机器人内心的“草稿”

那就这么办了,召唤机械臂,是骡子是马,我们挪一个看看。

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

Bingo!成功。

下一个任务,我们把牛仔热裤叠起来。

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

想一想,揪住一个角,挪过来就好了吧?

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

根据这个计划试一试:

这个机器人不学数据集,“纯玩”get家务技能,LeCun觉得很牛逼

完美成功~

传送门

最后,照例附上传送门。

论文:

Visual Foresight: Model-Based Deep Reinforcement Learning for Vision-Based Robotic Control

Frederik Ebert, Chelsea Finn, Sudeep Dasari, Annie Xie, Alex Lee, Sergey Levine

https://drive.google.com/file/d/1scfbONOHg8H2_pJ9naRkHfk4dGSNGNWO/view

博客:

Visual Model-Based Reinforcement Learning as a Path towards Generalist Robots

https://bair.berkeley.edu/blog/2018/11/30/visual-rl/

至于开源代码嘛,官方表示coming soon,或许过一段时间能在这个页面里找到:

https://sites.google.com/view/visualforesight

版权所有,未经授权不得以任何形式转载及使用,违者必究。