据英国网站theengineer报道,英国剑桥大学正在开发一种能通过追踪人的面部表情和说话方式来感知人类情感的软件。
这个项目是由剑桥大学计算机实验室的彼得·罗宾逊教授(ProfPeterRobinson)领导,他希望通过这个软件来提高人机互动的效果。罗宾逊教授 表 示,以往的电脑只能理解人类打字输入的结果或是人曾说过的话。但他们开发的这套系统不仅能知道人在正在说什么,还能知道人为什么会这么说。
项目组目前与剑桥大学自闭症研究中心联合开发这套软件系统,因为自闭症研究中心对人类情感的研究成果同样有助于软件开发。
这套软件系统分几个部分,其中一个部分专门追踪人类的面部,并对人的手势进行计算分析,进而推断出人当前的喜怒哀乐状况。目前的实验显示,它的分析结果正确率为70%,和大部分人直接观察出的结果几乎是一致的。
软件的其它部分则负责分析人说话时的语音语调并结合人的肢体语言与手势推断出说话人的情感。
项目组开发者们希望能利用这套技术来开发出新的指挥与
控制系统并应用于实际。比如说,通过感知
汽车司机的注意力是集中还是分散,系统可以帮助他避免来自于手机、收音机或卫星导航系统的干扰。
还有一些组员则致力于利用这套技术来开发能与人沟通的
机器人。他们按照英国计算机先驱查尔斯·巴贝奇(Charles Babbage)的脸容制造出了一个机器人的头部,这个机器人头部由24个马达来控制脸部的“肌肉”,它能做出很多的表情。科学家们希望能通过这个机器人更好地研究人与电脑之间如何才能进行情感交流,进而产生共鸣,建立融洽的感情并共同合作。