英国阿伯丁大学启动了一项新的研究计划,在3年内研发出允许机器人与人类进行交谈,甚至讨论具体决定的系统。借助于这个系统,未来的操作人员可以与机器人讨论行动计划,必要的时候还会命令它们打破规则。
智能机器人能够为人类的生活带来各种便利,它们能够与操作人员讨论各种决定,提醒操作人员哪些任务不具有可行性。阿伯丁大学首席研究员维姆博托-瓦斯冈萨雷斯表示这一系统的早期版本将在3年内问世。他们研发这一系统的目标是提高人类对智能技术的信任。
瓦斯冈萨雷斯说:“类似机器人这样的自治系统已经成为现代工业的一个重要组成部分,在没有人类指导下完成各种工作。机器人已被用于一系列工业领域。在决定如何完成任务时,它们能够快速处理大量信息。不过,这一过程也会犯下对它们或者人类来说并不明显的错误。有证据显示,如果人类无法理解自治系统为何在一个特定的时间决定以一种确定的方式执行一项特定任务,人类便可能对它们产生不信任。我们的目标是研发新一代自治系统,让人类与机器人之间进行双向交流。”
具备与人类交谈的智能电脑长久以来就是科幻作品的一个重要桥段,例如科幻影片《2001太空漫游》中的电脑“哈尔”。片中,“哈尔”失去控制,屠杀飞船上的人类。瓦斯冈萨雷斯等人研发的系统采用的人-机交流方式是电脑屏幕上的文字而不是语音,潜在的应用包括无人机器人行星探索任务、深海考察任务、防御系统以及对核设施等危险环境进行勘察。
对话中,操作人员可以就电脑做出的决定询问理由,是否存在其他选择以及为何放弃这些选择。瓦斯冈萨雷斯说:“这一系统允许操作人员质疑或者否决机器人的决定。必要的时候,他们可以准许电脑系统打破或者变通规则,以更好地利用资源或者确保安全。这种交流的最终目的是让机器人成为人类喜欢和信任的系统。这种人-机交流是双向的,有时候,操作人员可能不喜欢机器人给出的解决方案,但机器人会说‘对不起,这是所有我能做的’。”
在研发这种系统时,科学家必须考虑一个重要因素,那就是确保电脑的反应不具有危险性,不粗鲁和不形成对峙局面。瓦斯冈萨雷斯说:“我们会考虑这个因素。”为了解决这个问题,他们邀请一位心理学家参与研究。瓦斯冈萨雷斯指出与机器人交流实际上让人类肩负更大责任,因为一旦出现问题,你不可能将责任归咎于电脑。他说:“拥有权利同时也意味着责任。所有交谈内容都会记录下来,便于出错时追究责任。这是一个很好的副作用。”