机器现在可以识别出你的愤怒、恐惧、厌恶和悲伤!
英国《卫报》报道,这个“情绪检测系统”已经从一个研究项目发展成为一个200亿美元的产业,那么,当头顶一排监视器对准你,该不该担心机器识别出你的情绪?
而且在不远的将来,这项技术将整合到我们所有的设备中,能够“利用我们内在的、潜意识的、时时刻刻的反应”,变得无处不在。
情感检测技术需要两种技术支持:一种是计算机视觉,负责精确识别面部表情;另一种是机器学习,负责分析和解释这些面部特征的情感内容的机器学习算法。
接下来,会用到一种称为“监督学习”的技术,通过这个过程,去训练算法重复识别它曾见过的东西。
比如向算法展示成千上万张带有“快乐”标签的笑脸图片,那当它看到一张新的笑脸图片时,会再次将其识别为“快乐”。
2001年,当时从埃及赴剑桥大学攻读计算机科学博士学位的Rana el Kaliouby是第一个尝试这种技术的人。
她开发出一种设备,可以帮助患有阿斯伯格综合症(属于孤独症谱系障碍或广泛性发育障碍)的儿童阅读或对面部表情做出反应,她称设备为“情感助听器”。
2009年,她与所在实验室主任共同创立了第一家营销“人工情绪”的公司,名为Affectiva。
起初,二人将情感检测技术作为市场研究产品出售,为品牌商提供人们对某个广告或产品的实时情感反应。玛氏和哥伦比亚广播公司都是他们的客户。
后来,相关行业如雨后春笋般涌现,亚马逊、微软和IBM都将“情感分析”作为他们的面部识别产品进行广告宣传。
如今,除了做市场调查,情绪检测技术还被用来监测与检测驾驶员的损伤情况、测试视频游戏的用户体验、帮助医疗专业人员评估患者的健康状况等,用途颇为广泛。
监视器视频截图:北京人工智能公司Megvii总部正在使用面部识别软件。
Kaliouby目睹了情绪检测从一个研究项目发展成为一个200亿美元的产业,她对未来的增长也充满信心。并预测,在不远的将来,这项技术将整合到我们所有的设备中,能够“利用我们内在的、潜意识的、时时刻刻的反应”,变得无处不在。
既然机器也需要学习,那么情绪检测的优化就依赖于学习更多高质量的数据。
根据Affectiva网站的数据,他们拥有世界上最大的情感数据库——来自87个国家的750多万张脸!其中大部分是人们在看电视或开车上下班时的自愿面部记录。
海量的视频统一由开罗Affectiva办公室的35名工作人员整理,他们观看视频——将面部表情贴上标签——训练算法。比如,如果他们看到眉毛低垂、嘴唇紧闭、眼睛凸出,他们就会贴上“愤怒”的标签,反复如此。
要注意的是,在不同的国家,情感表达会呈现出细微差别。例如,巴西人用又宽又长的面部微笑来传达快乐;而在日本,面带微笑并不表示快乐,而是表示礼貌~
Affectiva系统为此设置一个尚未启用的“种族分类器”,但是,如何区分ta来自日本还是巴西?或者说,万一ta是个在巴西长大的日本人呢?
Kaliouby面对这些问题时表示:“嗯,这项技术确实并非万无一失。”
上述标记方法是20世纪80年代开发的“情绪面部动作编码系统”(Emfacs)衍生而来的,由加州大学旧金山分校心理学名誉教授保罗·埃克曼(Paul Ekman)和华莱士·V·弗里森开发,被行业人士认为是衡量情绪的黄金标准。
埃克曼当时推测并验证,人类有六个主要情绪——愤怒、厌恶、恐惧、快乐、悲伤和惊奇。就算人们试图掩饰,他们的情绪还是会真实的、本能地“泄漏”出来。
整个20世纪下半叶,这一理论被称为经典,成为埃克曼的专利,并开始主导情绪科学。CIA、FBI都用它作为培训项目,该理念甚至渗透到了流行文化中,成为大热美剧《别对我撒谎》(Lie to Me)的理论基础。
埃克曼发明了识别细微面部表情的方法,并将它们映射到相应的情绪上。该方法被应用于扫描人脸并检测ta是否存在欺骗迹象。
2003年,美国运输安全管理局希望通过此程序来验证假设:程序能否通过读取面部表情和行为来探测潜在恐怖分子,为此,他们推出“Spot”监控项目。
但结果不尽如人意。官员们将识别出来的乘客移交给警方进行审讯,少数被捕者的罪名与恐怖主义并无关联,。
许多研究人士认为,把面部表情直接映射到大众所认知的情绪上,毫无意义。因为,“情绪是很复杂的东西”。
当一个人生气时,他也可能会怒容满面;而一个人在策划着让敌人垮台时,他可能会礼貌地微笑。
Kaliouby同意这一观点。因此,他们的团队选择使用视频而不是静态图像来训练算法,还额外捕捉更多数据,如声音、步态和面部发生的细微变化,这些机器能识别到的变化超出了人类的感知能力。
埃克曼试图远离2003年的Spot项目,称自己的方法被误用了。但纽约大学人工智能研究所联合所长Meredith Whittaker表示,基于埃克曼过时的科学理论来开发机器程序不仅是一种糟糕的做法,还会带来切实的社会危害。
“我们已经看到招聘公司使用这些技术来衡量应聘者是否是一个好员工。也可以看到学校应用此来观察学生在课堂上是投入、无聊还是愤怒”,她说,“这些信息可能阻止人们找到合适的工作,或者影响他们在学校受到的对待和评估。如果分析结果不是完全准确,那就会造成实质性的伤害。”
因此,Kaliouby表示,“告知公众这一切是如何运作的、在哪里适用、在哪里不适用,是至关重要的。”
那么,该不该担心机器识别出你的情绪?
“我并不担心机器识别,而是担心背后的人们如何使用这些数据——想想谷歌和Facebook。人脸识别软件也在试图捕捉情绪,当它开始成为医学诊断手段,就是完全危险和可怕的。”
有些人害怕,
“人工智能正在接管世界”,
“非常重要的是,人类要意识到:这些计算机程序根本不知道情绪是什么。因为它们无法体验情绪,只懂得将面部表情与悲伤或快乐的面孔联系起来。”
欢迎关注更懂英国的微信号
“英国大家谈”(ukdajiatan)
— The End —
文/PinkyRui, 编辑/J,
文章参考 The Guardian
图片来自网络, 版权归原作者
添加星标,不错过任何好文
推荐一个放心的海淘商城:
英伦大叔好物
👇点击“阅读原文”,任意输入关键词
搜索你想要看的各种英国好文