许多研究人工智能(AI)的企业都在透过深度学习来教会机器人辨识图像,卡内基美隆大学(CMU)的研究团队则选了另外一种方式,他们试着教导机器人透过触摸来认知世界,就像婴儿一样。
TechCrunch 报导,在每天 8 小时实验期间,这个名为“Baxter”的机器人只有一个任务要进行──从桌上随机抓取物品,它的动作缓慢而笨拙,即使如此,这一个月期间也已经进行了 5 万次的抓取动作,Baxter 正在透过触觉反馈和尝试错误来学习。
研究团队在发表的论文中,解释了他们如何透过让机器人反复接触物品,来提升对物品的认知,“以婴儿来说,他们透过用手推、戳物品、把东西放进嘴里或扔出去来学会认知表征,我们也希望达到这样的目标,所以在 Baxter 的程式平台中建构了类似的模式,让它们在桌面环境上戳、抓取并观察物品。”
为了说明学习触摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英国的一项实验做为例子,当时研究人员对两只猫进行认知实验,其中一只就像平常一样生活、与世界接触,另一只猫则只能够观看,不被允许接触物品,最终只有被允许与环境互动的学会爬行,只能观察的不能做出同样举动。
而在实验中,Baxter 逐渐地展现出对物品认知的提升,当机器人认出熟悉的物品时,平板显示屏幕上会露出“微笑”,并且抓取物品放入适合的篮子;如果对物品不熟悉,屏幕上则会露出“困惑”的表情──研究人员并不担心,他们相信没有什么是另外 5 万次抓取练习学习不了的。
这项研究改变了传统的机器视觉学习模式,不同于以往系统透过已经输入的标签去判断、寻找物品,Baxter 是透过触摸来自我学习认知,Gandhi 解释,过去图像和标签之间并没有互动,在视觉系统中只有被动数据可以收集。
“我们想要的是与物品时可以获得活动的数据,并透过这些学习对其他视觉任务有用的功能。”
Baxter 的系统中有着类似 Kinect 的 3D 镜头,将收集到的视觉与触觉讯息发送到深层的神经网络,并在 ImageNet 中与图像交叉参考。团队在其中意外发现,收集的触摸数据让 Baxter 的辨识精准度,较其他只使用图像辨识的机器人高出 10%,团队认为这非常鼓舞人心。
尽管目前研究还处于初期阶段,但团队十分看好未来的发展,Gandhi 表示,他认为结合视觉与触摸学习的机器人可以用于拣选分类,就像 ZenRobotics 开发的类型,未来能为垃圾进行分类回收,这在现实中是一个非常大的挑战,“当然,我们目前还在婴儿学步呢。”
- Teaching robots to learn about the world through touch
(首图来源:shutterstock)