"他们就像是数字内容的看门人,像晚上出来工作的影子劳动力一样清理动态消息,在真正有价值的员工回家休息时,他们开始打扫地板,这不是一个好看的画面。"
写在前面:
Facebook更名Meta,好像让公众对这家公司的科技含量又多了一份想象。但在这样一家努力追求技术极限的公司,存在着一种鲜明反差,大量底层工人在做着非常原始的工种——内容审核。把违规内容剔出平台,这是靠算法和技术无法实现的一个效果。
这样的人群数量庞大,且不仅限于Facebook。科技巨头给他们付费,被要求观看那些暴力血腥或者不健康的内容,自身受到反噬,必须得去看心理医生。这也提醒我们,无论商业如何进步,总有无法逃脱的重力。
撰文|史蒂文·利维
Facebook有一段长达 17 分钟的视频,记录了一场大屠杀的全过程,包括刺客从一家清真寺冲到另一家清真寺的经过,直播的时候只有大约200人观看。事件发生 12 分钟之后,Facebook 知道了这个消息,并把视频撤了下来。但随后,即便该公司使用数字指纹来阻止上传,这段视频仍然在 Facebook 上传播开来。
一场精心准备的猫捉老鼠的游戏爆发了。
一边是 Facebook 在屏蔽视频,一边是用户坚持不懈修改文件以逃避审查。仅 24 个小时之内,用户试图上传某个版本的视频内容高达 150 万次,而 Facebook 屏蔽了其中的 120 万次,这意味着平台上成功出现了 30 万份复制的视频。一周后,有人报告说,在Facebook 上仍然可以找到该视频。
为什么成千上万的人认为上传这段视频是合适的?一直以来这都是一个谜。这也是另一条证据,证明连接世界也存在黑暗的一面。
比克特的角色是最前线的内容审核员,Facebook 大约在 2009 年开始设置这个岗位,当时它在都柏林建立了首个国际内容审核中心。内容审核员替代了客户支持人员,在 Facebook 创立之初,这些人的工作是屏蔽聚会上的裸照,与不雅图片狂热分子打交道。
在任务繁重时他们会疯狂地招募人手。目前为止,Facebook 的内容审核员已达数千人,其数量在 2016 年美国大选之后增加了三倍多,到 2019 年达到了 1.5 万人。审核员们在全球范围内工作,需要清理数百万条内容,这些要么是被用户报告为不当的内容,要么是被人工智能系统识别为潜在违规的内容。然后他们会很快做出决定,确定这些帖子是否真的违反了 Facebook 的规则。
然而,绝大多数内容审核员与工程师、设计师甚至是制定这些规则的政策制定者几乎没有接触,大多数人甚至不是该公司的员工。
自 2012 年在马尼拉和印度建立内容审核中心以来,Facebook 就开始通过外包的方式招募工作人员。这些人不能参加公司的全员会议,也没有资格获得 Facebook 的奖励。
Facebook 不是唯一一家使用内容审核员的公司:谷歌、Twitter,甚至像 Tinder 这样的约会应用程序都需要监控各自平台上发生的事情。但是,Facebook 使用的内容审核员数量最多。
尽管全球内容审核员的人数正在慢慢增加到数万人,但这个现象最初基本上是不知不觉的。学术界首先意识到这个问题。萨拉·罗伯茨(Sarah T. Roberts)当时还是一名研究生,她和大多数人一样,认为是人工智能在完成这项工作,直到一名计算机科学专业的同学介绍了当时提供支持的人工智能是多么地原始。
“这让我理解了这个问题,”她说,“唯一的补救办法只能是招募大量的基本上是底层的工人。”在 2010 年,这些公司并不承认它们采取了这样的措施。罗伯茨和其他了解这一现象的人发现了一种新型的工人,他们虽然不具备科技公司所偏爱的精英学位和工程背景,但对其运营来说仍然必不可少。
这也提醒我们,在前一个时代,21 世纪的互联网曾是理想主义的标志,但现在已经偏离了方向。
尽管扎克伯格在创办 Facebook 时可能就期望不需要太多的人工干预,但他的支持者们很早就意识到,需要花费大量时间来筛选 Facebook 的内容,以保护大众免受攻击性甚至非法内容的侵害。
让他们在工厂里工作,这是一种自然的进化过程,他们就像是数字内容的看门人,像晚上出来工作的影子劳动力一样清理动态消息,在真正有价值的员工回家休息时,他们开始打扫地板,这不是一个好看的画面。
这种清理可能会令人痛苦,因为每天都要面对强奸、非法手术和没完没了的生殖器图片。所有这些令人反胃的内容的存在都是令人不舒服的事实,Facebook 希望其清洗大军远离视线。
新闻业出现了一个分支,揭露了内容审核中心的状况。尽管Facebook 说这些消息被夸大了,但一些细节得到了多篇文章和学术研究的交叉证实:内容审核员几乎总是受雇于埃森哲和高知特等外包公司,他们的工资相对较低,通常在每小时 15 美元内。
他们以迅捷的节奏观看数量惊人的恐怖内容,用来决定内容被保留或被删除 的规则看起来很复杂,这份工作让他们思维混乱。
办公区里,长长的黑色桌子上摆放着一排排的显示屏,因为内容审核员没有指定的工位,所以没有个人物品。再结合“无纸办公室”的状况,让那些未被占用的区域看上去有一种被遗弃的感觉。高峰期这里有 400 名内容审核员,办公室里 24 小时都有人值守。
我的向导是高知特公司的高管,是他设立了这间办公室。他的专长是外包,而不是内容政策。所有的规则及其执行都来自“客户”,这是他对 Facebook 的称呼。
我遇到了一群自愿跟我交流的内容审核员,他们中大约一半的人读过大学。他们都认为,在目前的情况下,这份特殊的工作胜过其他的工作。我们仔细研究了他们的工作细节。Facebook 希望内容审核员每天处理 400 条内容,这意味着他们有大约 40 秒的平均处理时间来决定一个有问题的视频或帖子是否必须保留或被删除,或者在极少数情况下,提升级别由经理来处理,经理可能会把最令人困惑的决定交给门洛帕克的政策制定者。
Facebook 表示,每项决定都没有固定的时间限制,但记者以及对这一过程做过深入研究的几位学者的报道都表明,思考每一条内容是否存在问题,会让一名低薪内容审核员的职业生涯处于危险之中。
与我交谈过的一名内容审核员似乎正在与这个不成文的任务配额进行抗争:他的个人目标是每天处理 200 条。“当你做得太快时,你会错过一些小细节。”他说,他还补充说,如果他较低的平均处理效率受到质疑,他希望他较高的准确率能予以弥补。
我们犯了多少错误?这很难说,但有一个指标可以参考,就是用户对内容审核员的决定提出上诉所获得支持的次数。
2019 年头三个月,Facebook 删除了 1940 万条内容。用户对其中的 210 万个决定提出上诉,其中有不到 1/4 的上诉得到了支持,也就是说,对这部分内容,内容审核员最初的决定是错误的。另有 66.8 万条被删除的帖子在没有上诉的情况下得到了恢复。
换句话说,尽管大多数的判定是正确的,但在用秒表计时的氛围中,能力不足的内容审核员无法把事情做好,仍然有数百万人会受到影响。
这项工作充满挑战性,其中部分原因在于他们试图将存在问题的内容与他们的参考指引(即“社区准则”)相对照,这份指引延续了 Facebook 创立初期保罗·扬泽尔所使用的一页篇幅的文件,该文件由戴夫·威尔纳完善。内容审核员需要先在课堂上学习如何解读这份指引,然后在单独工作之前,由一位资深员工带着一起学习。该指引的部分内容在多次被泄露之后,Facebook 干脆于 2018 年将其全部内容公之于众。
“社区准则”证实了这项任务的复杂性。尽管要认定哪些内容是平台允许发布的,还存在文化上的差异,但同样的一套规则适用于全球各地。这些标准适用于 Facebook 的所有产品和功能,包括动态消息、Instagram、个人资料页上的“时间轴”以及 WhatsApp 和messenger 上的私人信息。
可以肯定的是,这份长达 27 页的文档无法涵盖所有的示例。Facebook 已经基于特定示例创建了大量非公开的补充文件。
最困难的判定是仇恨言论。Facebook 不允许自己的平台上出现仇恨言论,但是很难清晰地予以定义,这一点可以理解。“针对仇恨言论的政策是最难执行的,因为缺乏语境背景。”比克特说。
朋友之间开玩笑时所说的一些对话,在面对一名容易受伤害的陌生人或熟人时,它的意思可能完全不同。媒体上曾报道过一个案例,是一名喜剧演员发布的一个帖子,写着“男人都是人渣”。她因此被停职了。根据Facebook 的规则,不得对受保护的群体进行整体的侮辱。男性或女性都是受保护的群体。
仇恨言论太复杂了,所以 Facebook 将它分成了几个层级。第一级,包括称呼男人为人渣,以及将某个群体比作细菌、性掠食者或者“在文化上被认为智力或身体上低劣的动物”;第二级,是暗示低劣的侮辱,比如说某人或某个群体有精神疾病或一无是处;第三级,是一种政治或文化上的侮辱,包括呼吁隔离、承认种族主义或者直接咒骂。不同的层级对应不同的处罚措施。
问题是,针对男人或亿万富翁这样的强大群体的仇恨言论,是否应该像针对性别或种族等受保护群体的诽谤一样受到严厉对待。结果很有趣:报告称,最好的结果是予以区分,让人们对掌控权力的群体发泄。但是,这种处理方式没有被接受,因为这就要求内容审核员做出过于复杂的决定。
内容审核员自己说,他们已经做好承担责任的准备。不足为奇,这些承包商渴望将自己提升到员工的地位。这并不容易,因为内容审核所需的“技能组合”,不同于那些创建或营销 Facebook 产品所需的有用技能。
内容审核员贾斯廷说,他曾令人痛心地处理过一些有问题的内容,不是因为用户的不良行为,而是因为用户已经去世。Facebook 的算法经常会让死者的账号信息出现在其至爱的人的动态消息上,这可能会造成一具溺亡的尸体浮出水面的效果。Facebook 现在为去世的用户精心准备了“纪念”的方案。“纪念真的很有压力。” 他说。
凤凰城的内容审核员似乎认为,接触到令人不安的图片是工作中不那么愉快但可以忍受的一部分。
有时候,某些事情会刺激到他们, 他们就去找治疗师。有一位内容审核员告诉我,有一个“狠狠揍我” 的帖子里包含一条视频,其中有动物与人发生性行为、被屠杀、排便以及其他一些画面。“这让我难受了整整两周。”他说。在治疗师的帮助下,他渡过了难关。
Facebook 会定期审查内容审核员所做出的决定,当出现重大错误时,它会进行事后分析以便改进。但是,时间和金钱的综合因素决定了做出这些决定的速度,并导致错误经常发生。“如果每个人每天只审查一条内容,我们可能就不会犯错误。”前内容审核员贾斯廷早些时候曾告诉我。
这是 Facebook 的主要困境:它一直在招聘内容审核员,但他们需要浏览的内容数量仍然太多,以致他们不得不加快速度,最终导致无法做好自己的工作。
人们注意到,当内容审核员错误地删除一张照片时,发布者就会去社交媒体投诉。当有人报告了令人不快的内容,而它没有被删除时,又会引起更多的投诉。
媒体注意到:写一篇报道,说 Facebook 做出了一个现在看起来很糟糕的决定,这在新闻领域是易如反掌的事,但这个糟糕的决定很可能是一位工作劳累过度甚至精神受到创伤的内容审核员所为。扎克伯格自己也承认这一点。“我们公开的问题中,十有八九并不是因为我们的政策得不到大家的普遍认可,而是因为我们在处理这个问题时搞砸了。”他说。
接受采访的内容审核员对我说,尽管会面临时间的压力,还会看到人性最糟糕的一面,但作为一份工作,为 Facebook 做内容审核并不算太糟糕。他们将自己视为默默无闻的第一目击者,保护几十亿 Facebook 用户免受伤害。“我曾跟一些拯救过他人生命的内容审核员交流过,当看到有人企图自杀时,他们及时向执法部门做了报告。” 阿伦·钱德拉(Arun Chandra)说。2019 年,Facebook 聘请他来领导内容审核工作。“令人惊喜的是,这项工作能让人获得满足感和自豪感。”
萨拉·罗伯茨告诉我,她在自己的工作中发现,如果内容审核员 意识到自己只不过是一台机器的齿轮,而他们的雇主或者与他们雇主 签约的公司又没有真正倾听他们的意见,他们良好的感受会大大削弱。
“即便有人听取过他们的反馈意见,这种情况也是很罕见的。”她说。有一次,一名内容审核员告诉她,一件自杀威胁得到了积极的解决。“我们从来没有停下来问问自己,”这名内容审核员说,“人们在我们 的平台上看到的垃圾内容,在多大程度上导致他们想要自我伤害。”
几个月之后,我采访的凤凰城内容审核员们就遭遇了一起不愉快的意外事件。2019 年 10 月,高知特公司决定不再参与 Facebook 的内容审核工作。Facebook 宣布将关闭凤凰城的办公室,那些数字内容第一目击者将面临失业。
Facebook 真的很不高兴,因为它要求成千上万在办公室工作的人以每天处理 400 个帖子的速度监控平台上的内容。但 Facebook 找到了一个能大大改善运营状况的长期解决方案,同时还可以减少低薪员工的数量,这些低薪员工负责处理 Facebook 用户发布的图片,但需要接受心理治疗。如果在用户看到那些存在麻烦的内容之前, Facebook 就对它们进行了评估并予以删除,而不是等到有人报告,那会怎么样?
他们认为,答案是人工智能。对于看似棘手的内容审核问题,这是长期的解决方案。
文章节选自《Facebook :一个商业帝国的崛起与逆袭》