欧洲研究人员正在研发一种可预测人类伙伴意图的
机器人,这将使机器人与人类的互动更为自然。该研究小组由从事机器人技术、心理学和认知科学的科学家组成。
能言善辩、步履矫健、思维敏捷的机器人目前还只是存在于科幻小说中,我们现今的自动化机器与之相比还相距甚远。即便是现今最先进的智能机器人也比“奴隶”强不了多少,因为其只能做一些程序指定的任务。
许许多多的科学家正在努力创建一个更像是同伴而不是工人的机器人。但是要扮演这样的角色,这些机器人就必须能与人类以自然的方式进行互动,积极主动地参与任务和决策。研究人员期望机器人能提问、讨论和评估各种可能性、预测其伙伴的想法并参与到伙伴的下一步行动中去。
现在,一个多学科小组正在执行由欧盟资助的JAST项目。该项目旨在探讨当机器人协同参与一项任务时,它们会以何种方式参与或预测人类伙伴的行为和意图。
从研究人际合作入手
除非你真正了解“自然”的含义,否则你就无法使人类与机器人的互动更加自然。但至今很少有研究去探究作为“联合行为”基础的认知机制。联合行为指的是双方一起努力以达成一个共同目标。
因此,JAST项目的一个主要内容就是从事人际合作的研究,这些实验及其结果可为开发更自然的机器人行为提供借鉴。
参与JAST的研究人员都是他们所从事学科的带头人,在有关联合行为和决策等认知过程方面均获得了一些重大发现。最重要的是,他们仔细研究了到底是何种观察方式在联合行为中发挥了重要作用。 科学家们已证明,人们在看到一项行为时就会激活一系列的“镜像神经元”。这些神经元的谐振就好像是他们正在模仿这些行为,大脑通过有效复制正在发生的事情来学习这些行为。在JAST项目中,科学家在联合行为中发现了类似的谐振现象:人们在观察他们伙伴的行为时,大脑复制出他们的行为并试图理解这些行为。
换句话说,大脑对观察到的行为进行处理,就好像它自己在做这些事情。大脑形成其他人行为的镜像,这既是为了运动模拟目的,也是为了选择最适当的后续行为。
会判断意图的机器人
JAST项目机器人伙伴创建了一个可将其观察和镜像(谐振)能力合二为一的系统。
研究人员发现,JAST项目中的机器人虽然已了解了任务,但它们仍会观察行为,找出不利于任务完成的行为,迅速学习并参与到伙伴的行动中,当它们的伙伴没有遵循正确或预期的程序时,它们就会指出其错误。
研究人员在不同的场合对机器人进行了测试。在一种场景中,机器人被设置成一名“老师”,负责指导和协调其人类伙伴来制造一个复杂的模型玩具;在另一种场景中,机器人和人类伙伴则是平等的。研究人员表示,测试的目的是要确定人类是否能与机器人协调工作,机器人是否能在不被告知的情况下自行了解接下来要做什么。
例如,通过观察其人类伙伴如何选择一个工具或是模型零件,机器人就能预测到其人类伙伴打算如何使用这些工具或零件。类似这样的线索将有助于机器人预测其人类伙伴接下来可能需要什么。研究人员表示,在机器人能选择下一个项目前,机器人并不必看到这些行为的结果。
这些机器人还被编程为会处理一些疑点,并在其人类伙伴意图含糊不清时寻求澄清这些疑点。例如,如果一个零件可被用来构建3个不同的结构,机器人就不得不询问其合作伙伴使用这些零件的意图。
但是,JAST系统到底和其他系统机器人有何不同呢?
研究人员说,JAST机器人具有一个神经元结构,其能模仿在联合行为研究中展示出来的谐振过程。人类和机器人的心理过程非常接近。而其他机器人项目并没有研究联合行为,其只是预测人类伙伴的活动,而不能预测其决定或意图。JAST的预测能力在认知水平上要高得多。
人类知道如何根据他们所处的背景行事,不过,这对于机器人来说是微妙且难以理解的。但是,通过调整机器人的参与能力,制造出一个会主动参与人类行为的机器人并不是不可能的事。
也许未来某一天,不用等到人类提出要求,机器人就能使用JAST方法采取积极主动的行为,它也许会问你:“哥们,你想来杯茶吗?”