话说,性取向这事儿,
对很多人来说一直都是一个很私密的话题...
人们可以有各种理由选择出柜,也可以有各种理由待在柜子里。
自己到底是直是弯,就像脚板底袜子的破洞一样,只有自己心里清楚....
但是....
科学上,能不能从外貌看清一个人的性取向??
终于,在人工智能的加持下.... 科学往这个方向,进了一步.....
斯坦福的两名研究员做了一个研究,
仅凭一张照片,AI就能识别出对方是直是弯... 准确率不低...
这两名研究员是电脑专家Yilun Wang,和Michal Kosinski。
Wang曾经在谷歌工作过,在2016年他在斯坦福大学就专攻人工智能,是个技术派。
Kosinski是大数据专家和心理学家,爱好是通过人们在社交网络上的足迹来研究人类的行为。
Kosinski以前就搞出过不少有争议的大新闻,
比如通过分析人们脸书上的自我介绍,来判断他们的人格;
通过脸书上的活动,来预测人们是选择脱欧还是留欧;
最有名的是,他的大数据技术帮助川普团队找到潜在的支持者,被认为成功帮助川普当上总统....
‘脸书上留下的所有痕迹,不管是有意还是无意的,其实都是在做心理测试题。’他说。
这一次,Kosinski盯上了约会网站上的...gay们。
他和Wang想知道,在照片数量足够多的情况下,能不能通过AI,让它判断一个人的性取向。
两人在美国一家很受欢迎的约会网站上随机挑选了14,776人,其中男女弯直,数量均等。
在这1万多人中,再随机挑选他们的照片,最终得到35,326张图。
因为约会网上上每个人都清楚地写了自己的取向,只要把照片和取向在电脑上同时输入就行了。
之后,他们用一种很主流的分析人脸的工具,Face++,将照片上的面部特征用数据的方式分析出来。
然后让电脑通过一种叫做‘深度神经网络’(Deep Neural Networks)的判别模型,学习这些脸部特征,最终,AI能够判断一个从来没见过的人,他的性取向是男是女....
以上这些听上去没什么,
但重点是结果.....
他俩发现,AI‘鉴gay’这件事,准确率居然真的挺高...
如果,
把一张直男照和一张gay照放到AI面前,它判断gay的准确率有81%。
如果每人不止给一张图,而是5张,那么它判断出gay的准确率会飙升到91%....
AI在鉴定蕾丝的能力上要差些,
如果只看一张照片,那么准确率是71%,
如果每人给5张照片,准确率是83%。
(下图是随着照片数量的增加,准确率上升)
但是人呢?
人判断他人直弯的准确率如何,不是号称有‘gay达’吗?
嗯,Kosinski和Wang随机找了一帮美国工人,
也是给他们看同样的照片,但人判断的准确率,对gay的正确率为61%,对蕾丝,是54%.. (2选1,瞎蒙大概是50%的正确率这样)
Wang和Kosinski还找到很多有趣的信息:
在电脑分析的时候,他们发现异性恋与同性恋在脸部上的差别,主要集中在几个地方。
(下图红色部分)
对男性而言,鼻子,眼睛,眉毛,脸颊,头发和下巴,这些地方的不同能够让AI识别出他的性取向;
对女性,则是鼻子,嘴角,眉毛、头发和领口。
通过大数据分析,Wang和Kosinski发现,
总体而言,同性恋男人的鼻子比直男的鼻子更窄、更长,他的脸也更瘦长一点;
而和直女相比,同性恋女人的颌骨较大,额头较小。
(下图左列为直,右列为弯)
这是他们绘制出的特征图,
红笔画的是同性恋的脸型,绿笔是异性恋的脸型。
单纯看脸???
那么这件事,有科学理论依据么?
两人在论文中写道,他们认为这个结果证明了‘胎儿激素暴露理论’。
这几年来,有这么一种理论:
当胎儿在妈妈的子宫里时,子宫里某些激素的过高或过低,会导致孩子出生后的情绪和行为的不同。
曾经有科学家发现,
胎儿过多地暴露在紧张激素下,成年后更可能有情绪问题...
激素还能影响孩子们的性取向,和童年时不同的行为特征...
两位斯坦福研究员认为,
在子宫里时,因为过少(对男胎)和过多的雄性激素(对女胎),导致一部分人是同性恋,并且这些激素对他们脸部的形成、个人喜好,和行为都有影响。
而激素也有可能影响到脸型,这就是为什么,性取向和脸可以有联系。
两人的论文经过诸多大牛的同行审核,
在上周在业内顶尖的《人格与社会心理学期刊》上发表....
两人本来挺开心,
但是在《经济学人》的记者9号报道了这篇论文后,
他们遭到了来自网友的猛烈抨击....
人们一开始的态度是:
完全拒绝,同性恋和异性恋不可能长相上有差异。
著名的同性恋权益团体GLAAD和HRC发公告驳斥这篇论文。
他们主要的论点是,这篇论文非常不严谨,是一项‘垃圾研究’,比如整个研究样本里都是白人,缺少有色人种,没有经过同行审核(其实审过了),没有调查双性恋,没有区分性取向和性行为,等等....
所以,他们的结果不可信。
Kosinski觉得,这完全是感情用事。
他转推了另一个教授的话:
‘因为和你的意识形态不一样,所以全盘否认一项科学结果...你最终可能伤害到你爱的人。’
他们还写了一篇长长的‘作者的话’,把同性恋团体的论点都拆开分析,力证自己没有错...
另一群网友的观点是:
好吧,就算性取向和脸部差异挂钩,
但是,
我是啥取向就是啥取向,为什么要让你知道?
你有什么权利知道?
这个AI是侵犯个人隐私。
但Kosinski说,他们做这个研究,其实就是想提醒政府,保护现在人们的隐私(论文的结尾里也这么写道)。
他说,两人使用的技术并不稀奇,都是前人用过的,找这些照片也非常容易。
他们想以此来警告政府和广大公司,是时候保护人们的隐私,不让这一切信息如此容易得到。
‘以前的研究证明,人们可以通过他人在社交网路上的足迹,判断出他们的性取向。
但是这些信息是可以被掩盖、被刻意改变的。但一个人的脸不太可能被掩盖...’
‘在约会网站、社交网络、政府官网,有几十亿人的照片。这些信息太容易被得到了。
我们的研究证明了,这些公开的数据,加上传统的工具,能够让人造出判定性取向的仪器,不经过允许就能知道对方是直是弯。
现在政府、社会,和同志团体应当更快地意识到这种危险...不公布这个研究,可能会延缓政府推出法律,保护人们的隐私..
Wang和Kosinski在论文里说,
他们知道这么做可能会提醒人们去做此类AI,起到反效果,但为了尽快让政府行动,他们还是选择公布。
不过由于这些内容标题没有提,加上写在太后面,很少有人注意到....
Kosinski不满地发推:
看来没有人问问这个问题—— ‘假设他们是对的,那么我们接下来该怎么保护自己呢?’
Kosinski是非常郁闷,
他俩的‘初衷’也可能确实没有错,
但是.....
他们可能忽视了一个大问题:
在全世界,有很多国家把同性恋还当做一项重罪,
这项技术可能被政府使用,通过看人们的脸,就能揪出谁是同性恋,然后把他们铲除干净。
(下图红色部分,当同性恋要坐牢,黑色部分,当同性恋会被判死刑)
网友愤怒地写道:
我努力让我自己平静下来,但是想到这两位研究员,Michal Kosinski和Simony Wang,我真想让他俩被活活烧死。
还有人寄恐吓信:
...你们绝对知道在世界上的某些国家,当同性恋是重罪。所以我觉得你们肯定是恐同分子,想借他人之手谋杀同性恋!
如果你俩不是的话,拜托马上把这个项目的研究资料全部销毁,不然的话我真心祝愿有人能把你们杀掉。
求你们了,拿把刀自杀了吧!
对这一切,Kosinski告诉卫报记者,
他没有向大众放出过能够使用的AI程序,他也不会让其他人使用。
他自己认为,这项研究其实是对LGBT有好处的,因为这证明了同性恋纯碎和生物原因有关,而不是个人选择。
‘对那些宗教团体和煽动者,这是一个强有力的论据。’他在采访中说,‘当他们问你‘你为什么就是死活不改变?你为什么不服从我们?’你就能说,我就是不能,因为我生来如此。’
但也许是吵得太凶,
Kosinski自己对这项研究也有点后悔了。
他多次告诉记者,‘我真希望有人重复我的实验,证明我是错的....如果我是错的,我可能是最开心的那个...’
目前,因为抗议太多,
《人格与社会心理学期刊》的主编们表示会对这篇论文重新审核。
ref:
https://theoutline.com/post/2228/that-study-on-artificially-intelligent-gaydar-is-now-under-ethical-review-michal-kosinski
https://twitter.com/michalkosinski
https://amp.theguardian.com/world/2017/sep/08/ai-gay-gaydar-algorithm-facial-recognition-criticism-stanford
https://www.glaad.org/blog/glaad-and-hrc-call-stanford-university-responsible-media-debunk-dangerous-flawed-report
https://docs.google.com/document/d/1UuEcSNFMduIaf0cOWdWbOV3NORLoKWdz3big4xuk7Z4/edit#
https://www.economist.com/news/science-and-technology/21728614-machines-read-faces-are-coming-advances-ai-are-used-spot-signs?fsrc=scn/tw/te/bl/ed/advancesinaiareusedtospotsignsofsexuality
https://www.theguardian.com/technology/2017/sep/07/new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph
-------------------
我控制不住自己了:能不能干点儿正事儿?去研究时光机阿!不然我那么多双色球中奖号码别存了!!!
你他妈还学习不:关键他那玩意普遍gay比直男好看啊。。。。好了说正经的,比如本来我们常开的,一个没有恶意的玩笑“gay里gay气的”,在这种东西出来之后,“以貌判gay”可能就会变成一个真实的伤害,那些反对同性恋的“你看那个人一看就是gay,躲远点”,本来同性恋生活就如此艰难,还要拆穿别人?
MSatSMTH:觉得文里那些抗议者都是些怂货,没胆去对抗那些把同性恋当重罪的国家机器,只敢拿研究者说事。一看那个说要“拿刀”的就知道他们是哪些奇葩……
杨柳树下的草先生:这俩不是说了他们的目的吗……从目的上来看我觉得没啥问题……可能就是这个研究太gg了
白光在黑色上:个人认为这是一个为满足人的猎奇心理和偷窥他人隐私的研究。冠冕堂皇地说是为了提高警惕个人信息暴露的,可你拿照片判断gay?!行为和目的驴唇不对马嘴。并且这项研究带来的负面影响远远大于正面影响。
八块腹肌七平平:…我的脑子有洞,我居然第一个想的是【按照我修图丧心病狂的程度也看不出我直还是弯´_>`】
Tiger公子:我觉得这种研究,尤其是所谓对什么子宫激素影响胎儿未来性取向的研究,会令很多丧心病狂的恐同分子开始打孕妇的主意……不开玩笑
此乃叉叉明是也:假设这个推论有依据且有一定成立的可能,然而双性恋要算哪一边呢
-------------------
最后的最后...
给你们贴一个被我逮到随地乱拉做坏事的破狐狸哼...
-------------------
往期热点推荐
随手拍,随手爆料!
墨尔本新鲜有趣的事,敬请关注我们
新浪微博:墨尔本华人官微
公众号:melbchn
爆料邮箱:[email protected]