最近,Facebook因为一项官司,又成为了媒体的焦点:
一位曾为Facebook做内容运营的审查员Selena Scola将Facebook告上了法庭。
她是Facebook集团下的一个内容审查员,才工作了9个月,就因为“持续不断地接受过于暴露、令人不安的图片”而患上了创伤后应激障碍综合症(PTSD)。
所以她把她的直接雇主Pro Unlimited公司,以及间接雇主Facebook都告上了法庭。
这项诉讼一出,今年来频繁被聚焦的Facebook又被推上了舆论热点。
网友们纷纷表示:这事儿并不稀奇!
Facebook从决定扩展审查员队伍时,就应该预料到如今的局面。
Facebook作为世界上最大型的社交平台,一直以来都有自己的内容审查制度。按照他们的内容运营规则,用户在Facebook上传内容时,是没有预先审核的。
但是,如果有用户发现违规内容,就可以向Facebook管理方举报。
接到举报后,Facebook会去判定这些内容是否确实违规,
如果是,就需要将其删除,防止它继续被传播。
要判定被举报的内容是否违规,依然需要耗费大量的人力。
所以,为了应对越来越繁重的审核工作,在2017年5月,扎克伯格宣布Facebook要在原有4500人的基础上,扩招3000人至7500人。
这次起诉Facebook的员工Selena,正是从2017年6月扩招后,开始为Facebook做内容审核的。
然而,这里值得注意的是,Selena并不是直接受雇于Facebook。
她所在的公司叫做Pro Unlimited,是一家人事代理机构。
包括她在内的3000名新审查员,其实是作为Facebook的外包公司员工在工作。
这也就意味着,Facebook可能不会像对待直属员工那样,更好地为她们的心理健康提供支持服务。
在这里,她总共工作了9个月,每天都会接触到成千上万充满暴力和色情的图片,看各种有敏感内容的直播。
每天早上9点上班,她打开电脑屏幕开始审核的第一刹那,她看到的都是凶杀,暴力,砍头,血腥的内容....
而工作的要求,她必须每天接受和审核这样的内容,直到当天工作结束。
渐渐的,Selena发现自己的精神状态出现了问题
她开始觉得十分疲劳,失眠和社交焦虑越来越严重。
甚至在睡前闭着眼睛的时候,眼前都会浮现起白天上班审核内容时看到的场景。
更严重的时候,
甚至都不敢碰鼠标....
以为一碰鼠标,都会瞬间给她各种不好的记忆,会让她整个人一惊。
审查了太多儿童色情内容后,她开始怀疑所有和儿童互动的人,甚至对婚姻产生动摇和不安。
随后她被诊断为患上了PTSD综合症。
于是,就如文章开头所说的那样,她将自己的直属公司和Facebook都告上了法庭,迅速获得了大量的关注。
虽然目前案件还处于起诉阶段没有结果,但可以预料到的是,
就算是迫于舆论压力,Facebook都会认真对待Selena的PTSD及她所代表的那批员工的心理健康状况。
那么,这样内容审核员的生活究竟是怎样的?
就在Selena逃离了这个让她怀疑人生的行业、维护自己的权益之时,
在大洋的另外一头的印度,
还有一批年轻人,心怀期待地进入到这个行业,
将自己暴露在大量的“有害图片”之下,来不及考虑自己的心理问题…
之前有一部纪录片讲述了这些印度内容审核员的生活...
【印度审查公司:审查员们一开始,都是满怀憧憬的职场新人】
这天是周一,印度的一家专业审核公司迎来了他们的新一批的员工。
这家公司的主要业务,是给他们的客户公司提供人工审核内容服务。
他们可以根据不同甲方公司的不同要求,训练不同的团队,
因为这份工作本质上就是靠人力和时间的投入,
所以随着公司的业务扩展,他们需要不断招聘新员工。
今天来到公司的这一批人,都是年轻人。
他们不仅没有接触过审查员的工作,也没有别的工作经验,算是完全的职场新人。
他们大多数都不是很清楚这份审查员工作到底是做什么的,但都非常珍惜这次机会:
就这样,这群懵懵懂懂的新人应聘成功、在合同上签好字后,就开始了人生的第一份工作。
大家都怀着美好的期许,希望自己变得更有经验,有机会成长。
至于他们到底能从这份工作中获得多少经验,这批新员工本身并不清楚。
面对还有点茫然的新员工,
负责人开始给大家介绍这份工作最基础的一些信息。
“你们都有自己的社交媒体账号吧?你们往上面传自己的评论,不同的照片。
那我想问你们,是否有在这上面看到过色情内容?”
听到大家小声回答“没怎么看到过”后,负责人继续说:
“你们应该都没有一打开脸书就看到满屏的黄图吧。为什么看不到,你们想过吗?
是因为没有人上传吗?不是的。是因为有审查员的存在!
如果没有规则和审查,网络就会变成一片混乱之地。
所以需要有人时时刻刻注意着网络的动向。
所以我们必须注意每一个角落。”
在简单给大家介绍了这份审查员工作的意义后,员工们开始接受公司有经验的审查员的培训。
这批人的培训课程是针对一个约会软件制定的。
这个约会软件上的用户会有自己的相册文件夹,
而审查员们需要做的就是对这些照片进行筛选,删除那些不符合约会软件平台规定的照片。
为什么约会软件如今也需要这么多审核员了?
负责这个项目的部门主管向大家介绍了这种审查的必要性,
那就是保护寻找真爱的用户们,不被骗财骗色骗感情:
“审查对于约会应用来说也是很重要的,如果没有审查,网络交友市场不会像现在这样繁荣。
大多数人都是去网上寻找自己的灵魂伴侣的,一定程度上这样的用户是很脆弱的。
不仅因为他们把自己的个人信息传了上去,也因为他们可能会带着很强的感情色彩去互动。
所以在这种平台上,骗子很容易伤害和操纵这群用户。
常常有人上传从他人那里偷来的照片,盗用他人身份。
所以我们一般都会把这些可疑的照片验证一下,是不是真的上传者本人。
“我们会去查他们的脸书账号,通过脸书来核对身份。
如果查下来,照片都是真的,那就没事儿了。
但如果对不上号,我们就会继续查。
按照经验,可疑的照片中,大概有30%-40%的可疑照片的确是本人上传的。
但另外的60%-70%就都是骗子们了。”
“这些骗子坐在家里,通过盗用他人身份,找到了一个简单的生财之道。
比如,他们会不停地给接触到的用户发垃圾邮件,要钱、要机票,
说些什么‘我会来陪你的啊,我会来和你在一起的,只要你帮我买机票就好。’
这种情况下,接到这种信息的人就已经很危险了。
所以我们必须帮他们。”
公司领导们的这一番话,让新进的审查员们可以感受到:
自己的工作其实充满了意义,
自己做的很多事情,都是在保护所有无辜的网友们!
不用怀疑工作的意义,努力接受培训才是眼下最重要的。
【布拉德皮特和比基尼女性,都是违规内容】
工作内容和意义介绍结束后,新人们开始正式学习,具体到底怎么做内容审查了。
培训开始前,培训老师向大家提问:
“在最开始,我想问大家,谁能告诉我内容审查到底是什么?”
这个问题出来后,房间里一片安静,没有一个新员工能接上话。
培训主管并不觉得意外,接着他回答了自己提的问题:
“其实,简单说你们需要做的就是判断数据。
就是在我们的客户给我们的规则基础上,知道哪些内容可以被批准,哪些应该被拉黑。
但这并不是一件谁都能做的事儿。
你必须非常擅长判断事物,具有很好的理解能力。
你们不能犯任何一点错,因为任何一点错,都会带来严重的后果。”
接下来,培训主管花了好几天的时间,举了无数个例子来给新员工们讲解规则。
虽然大体上审核规则都是相通的,无非就是包含色情、暴力、变态等内容需要被删除。
但什么样的图片、视频算得上是“色情、暴力、变态”,就需要靠经验来判断了。
比如,开始第一天,培训主管给大家展示了一张照片:
照片中是一个穿着内裤的男人的下半身。
培训主管说:
“这个人并不是裸着的,
但是你能很清楚地看到他的勃起的部位,
所以这种情况下也是不可以的,这种在这个平台属于裸露。”
紧接着,他又展示了另外一张照片,是一个穿着内裤的男人的背影:
“下面这张我们不是很确定,这个人要么是在小便要么是在干什么别的。
就算我们假如,他有50%的概率可能是在小便吧,那也是不可以的。
小便的照片是不允许的,既然这张图看上去他挺像是小便的,哪怕只有50%几率,这种类型的图片都是不能容忍的。”
下面的员工们都有种恍然大悟的感觉:
原来这些内容都会被看做违规的!
果然不是靠电脑简简单单就能判定的,
这不仅需要判断能力,还需要联想能力!
然而,接下来主管讲解的“违规内容”中,比上面这两张图还让人意外的还很多。
到了周三,培训主管开始给员工们举一些更加具有冲击性的图片例子。
在严肃地说了一通后,员工们都严阵以待,等着主管放出那批非常有冲击性的照片。
结果荧幕上显示出的,是一张在沙滩上穿着比基尼的女性。
她并没有全裸,看起来似乎没有什么不妥。
于是员工们都笑了。
但主管不管大家笑不笑,继续严肃地说:
“这种照片,也是不被容忍的。
因为你看这张,很明显地可以看到,
摄像头的对焦的重点、照片的重点就是在这个女性的屁股上。
这张照片就是为了凸显她的臀部而拍摄的。
虽然她并没有真的裸露关键部位,但这种照片还是要被归在裸露照片的这类中。
聚焦臀部的照片不行,竖中指的、很明显的含有粗俗信息的,也是不行的。
紧接着主管又放了一张一个女性对着镜头竖中指的照片,作为违规示范:
“任何裸露、任何形式的低俗内容,都不能留着,都需要被删除。”
随后,他又放了一张在动物园里的照片,说这样的也不行。
因为照片中的动物在交配,这也是属于淫秽内容。
这次,员工们都听呆了。
但最令人意想不到,布拉德皮特的照片也是违规的。
培训主管指着一张可以称得上是证件照的布拉德皮特照片,
说这样的照片,在这个约会平台上也是不被允许的。
因为用名人照片来当自己的资料介绍是一种虚假信息,虽然不涉及色情暴力,但也必须被移除。
所以, 员工们不仅要有联想能力,理解能力,
还必须尽可能多地了解社会名人…
如此看来,这份工作的确是需要大量的经验累积才能胜任。
【每天都接受负面信息,内心真的不会崩溃吗?】
除了上面那些让人感到有一丝意外的“违规内容”外,
大多数被删除的照片,都是员工们通过自己的理解,短时间内就能看出违规的内容。
比如涉及虐童的、充满血腥暴力的、还有各种含有变态性行为的照片。
这些照片拿给AI可能不好分辨,但从人的角度似乎非常好理解是否违规。
比如,AI现在还是很难分清楚难民、战争报道中儿童的图片,和虐童、恋童癖的图片;
同时也识别不出来,一些充满“性暗示”的没有血腥、裸露的照片。
对于没有丝毫暴露的,但充满性意味的SM照片,培训主管也曾经举过例子:
“还有一些变态的照片,可能不涉及暴力、也没有任何裸露,但是你能看出它很变态。
比如这张:这个人其实是在喝另外一个人的小便。
这种也是绝对不能容忍的。
我们不允许任何类似的暴力、变态图片出现在用户的相册中。”
总而言之,培训主要是让大家知道,
平时一些看起来“无伤大雅”的图片,
都有可能因为对焦的重点、蕴含的意义而违规的。
看得多了大家就能慢慢摸索出哪些照片有问题了,关键是要提高准确率和速度!
对于接受过培训的熟练审查员来说,
他们每小时可以审核2000多张照片。
而这家公司20个审查小组,一天的时间里可以处理近一百万张敏感照片。
这些都是依赖于员工们一张张地看、一张张地判断....
这样高强度的工作中,审查员难免会变得有点麻木和疲惫。
但再麻木、再疲惫,有一类内容在发现之后,
还是需要他们停下来做记录,做成报告上报的。
这类内容,就是和虐童、恋童癖有关的一切图片、视频。
对这家印度公司的所有审查员来说,他们虽然每天会接触到大量的违规照片,
大多数时候他们除了删除、阻止他们继续传播,也不能做更多的事儿;
但关于虐童信息的追究,算是他们在繁重的工作中依然需要去承担的一份社会责任。
不过,看到他们这样繁重的工作量,和由内而外的“社会责任”,
人们也难免会疑惑:
偶尔一两次报告虐童情况是一回事,
每天都接受到大量的虐童照片,就算理智上能接受,
人的情感上就不会感到压抑和窒息吗?
所以,当新员工们看到老员工们的工作状态后,内心产生对这份工作的怀疑一点也不稀奇。
而培训主管也没有回避这个问题。
对他来说,要尽量地降低这份工作带个个人生活的负面影响,最关键的就是不要太过于“感情用事”:
“有时候,你可能会觉得怎么能看到这么多让人难受的照片。
但是这就是审查的一部分,这就是我们的工作。
别在工作中,投入太多的个人情感。
你是印度人,你肯定会遇到一些让你觉得很难受,冒犯了你的信仰和三观的照片,你会感到愤怒。
但其实没必要这样。
你来这里,就是为了删除这些东西,从而不让更多的人看到。
我之所以做得好,是因为我从来没有那种‘我的天啊这是什么鬼’的感觉,
在我看来,说到底这些不过都是图片而已。
我也没有在做什么错事,这就是我的工作而已。
对我而言,这份工作从来没有给我的生活带来太大影响。”
从这个纪录片来看,
这家印度公司虽然工作量巨大,但他们并没有把审查员的内心负担看作是严重的问题。
这还只是为约会软件服务的审查员....
相对来说,约会软件上的图片,偏凶杀暴力的可能还相对少一点。
而在Facebook上,这类违规的内容,可能更多,更突破人的底线....
从Facebook的审查员团队,和印度审查公司的纪录片中,
除了讨论“长期接受负面信息,是否会造成审核员心理创伤”外,
我们还可以清楚地感受到一个事实:
人们之所以不能完全依赖于人工智能完成审查工作,
不仅因为存在大量过于复杂的图片、视频、文字、声音信息,
也是由于关于什么是“违规”的判断规则,最终还是由带有强烈主观意识的人来决定的。
拿印度来打个比方说,
在印度,虽然现在有很多约会软件,
但约会软件到现在仍然是一种带有社会禁忌符号的事物。
在这样的情况下,假如一个来自很保守的家庭的审查员,在约会网站上看到一张穿比基尼的照片,
他可能就会觉得这照片有点过了,不合适。
而同样的照片,如果是拿给看惯了阳光沙滩的美国加州审查员来说,可能就不值一提了。
从全球来看,每个国家都有着各自不同的文化,有着不同的社会禁忌,
在现实生活中能够约束人的法律、道德规范、社会共识,在网络空间里依然会起作用。
从这个角度,审查员们也就像是在网络世界维护秩序的人,
和现实世界的警察、执法者们极其相似:
会和负面信息接触,会让自己置身于“危险”之中,会受到创伤;
但有的地方的“警察”福利好,有组织提供的的心理治疗师,受到创伤后可以获得赔偿;
而有的地方的“警察”,光是能够争取到这份“辛苦的工作”就已经很不容易了,
没有太多的福利,有再多的压力也不能轻言放弃,只能咬牙继续,让自己更坚强、或者说是更麻木...
或许,在AI能够取代人们判断负面信息之前,
这种“网络环境安全”和“审查员心理健康”之间的矛盾,还是会一直存在吧...
ref:
https://www.theguardian.com/technology/2017/may/04/facebook-content-moderators-ptsd-psychological-dangers
https://mashable.com/article/facebook-moderator-sues-ptsd/?europe=true#FIYjOXZIZPqW
https://www.theguardian.com/technology/2018/sep/24/facebook-moderators-mental-trauma-lawsuit
https://www.youtube.com/watch?v=k9m0axUDpro
--------------------------------------
…………………………
事儿君有品,
专为大家准备英国的各种值得推荐的好产品~
英国直邮,包邮包税~