【译】Facebook有权屏蔽“仇恨言论”——但是以下是它不该这么做的理由


原文:https://quillette.com/2019/02/07/facebook-has-a-right-to-block-hate-speech-but-heres-why-it-shouldnt/

作者:Brian Amerige

日期:2019-02-07


8月底,我给当时在Facebook工作的同事写了一篇文章,谈到了我在公司内部看到的政治多元化问题。你可能已经看过那篇文章,因为有人把备忘录泄露给了《纽约时报》,然后备忘录就从那里迅速传播开来。自那以后,发生了很多事情,包括我离开Facebook。我从来没有打算公开我的备忘录——它们是为公司内部的听众写的。但现在我已经离开了这家公司,关于我是如何参与进来的,Facebook严苛的内容政策是如何演变的,以及我认为应该做些什么来解决这个问题,我还有很多话要说。

*     *     *

我在Facebook的工作与政治、言论或内容政策从来没有任何关系——至少没有正式的关系。我被聘为软件工程师,并最终领导了一些产品团队,其中大部分专注于用户体验。但与政治和政策相关的问题是我当初加入Facebook的核心原因。

2012年我加入Facebook团队时,该公司的使命是“让世界变得更开放、更紧密,让人们拥有分享的力量”。我加入是因为我开始意识到特别是该使命的后半部分——给予人们分享的力量——的核心重要性。一百年后,我想我们会回顾并将通信科技——让人们更快更容易地把自己头脑中地想法向他人展示的科技——视作人类已经经历的一些最为显著的进步的支柱。我仍然相信这一点。这就是我加入Facebook的原因。

在大约五年的时间里,我们取得了进展。公司和我都经历过起起落落、成长和挫折。但总的来说,我们希望成为人们故事和想法的透明载体。当我的团队在开发Facebook应用程序“Paper”,以及后来重新设计的News Feed时,我们暗喻地希望我们的设计能像酒杯一样:隐形。我们的目标是让出路来,让内容自己发光。Facebook的内容政策也反映了这一点。在很长一段时间里,该公司是言论自由的强烈支持者(即使有时是无原则的)。

截至2013年,这基本上是Facebook的内容政策:“我们禁止被视为直接有害的内容,但允许具有攻击性或争议性的内容。”我们将有害内容定义为任何组织现实世界中的暴力、盗窃或财产破坏,或直接对特定个人造成情感困扰的行为(如欺凌)。

然而,到2016年美国大选开始时(尤其是唐纳德·特朗普(Donald Trump)获得共和党提名之后),情况已经发生了变化。Facebook鼓励“把真实的自己带到工作中来”,再加上根据统计我以前的同事绝大多数政治上左倾,这一切意味着,左倾政治已经走进了校园。员工们贴满了奥巴马的“希望”(HOPE)和“黑人的命也是命”(Black Lives Matter)的海报。官方的校园艺术项目开始关注左倾的社会问题。在Facebook位于西雅图的办公室里,有一整面墙自豪地贴着几乎所有你能想到的左翼运动的标签——从“抵制”(#RESIST)到“我也是”(#METOO)。

我们每周与马克·扎克伯格(Mark Zackerberg)(内部称为“扎克”)的问答的那些问题,反映了Facebook的政治化。这里是我用自己的话总结的,但是像“我们对那些受到特朗普总统任期影响的人做了什么?”以及“为什么支持特朗普的彼得·泰尔(Peter Thiel)还在我们的董事会?”这些问题变得普遍起来。值得称赞的是,扎克伯格总是优雅而清晰地回答这些问题。然而,尽管马克支持政治多元化,但愤怒的、往往政治上不宽容的员工对Facebook领导层的不断纠缠,开始越来越多地左右着这种氛围。

由于这种文化是在公司内部发展起来的,所以没有人公开反对。这可能是因为持不同意见的员工在目睹了更广泛的拥抱政治正确的文化之后,预料到了如果他们在“平等”、“多样性”或“社会正义”等问题上越轨会发生什么。当“特朗普支持者也受欢迎”的海报出现在校园时,这个问题就被搁置了——其他员工义愤填膺,这些海报被迅速撕下来。后来,天才少年Oculus VR创始人帕尔默•勒基(Palmer Luckey)——我们以数十亿美元收购了他的公司——遭到了政治迫害,随后被解雇,原因是他拿出1万美元资助反希拉里的广告。

就在这个时候,Facebook的内容政策演变为禁止“仇恨言论”,这并非巧合。内部的政治单一文化,以及左翼利益团体要求我们对仇恨言论“做点什么”的外部呼吁,结合在一起,形成了一场完美风暴。

随着内容政策逐渐纳入更广泛的仇恨言论条款,私下反对的员工在公开场合保持沉默。这是一个严重的错误,我希望当初在这些价值观深深扎根于我们的企业文化之前,我就能认识到这种威胁的严重性。我们内容政策的演变不仅危及Facebook的核心使命,也危及我本人与该公司的结盟。于是,我的主要智识关注点变成了Facebook的内容政策。

我很快发现,如果不被同事称为“仇恨煽动者”,我甚至无法谈论这些问题。为了应对这种情况,我发起了一项政治多元化的努力,以创造一种文化,让员工在谈论这些问题时不会危及自己的声誉和职业生涯。不幸的是,尽管这项努力受到了1000名员工和大多数Facebook高管的好评,但很明显,他们决心以“保护”人民的名义牺牲言论自由。因此,我在10月份离开了公司。

这些海报预示了“Facebook员工支持政治多样性”团体的诞生。这些话来自Facebook的员工,在我写的一篇批评左倾艺术的帖子激怒了一群充满道德义愤的暴徒,试图让我为冒犯了同事而道歉之后,他们找到了我。

让我们快进到今天。以下是Facebook对其当前仇恨言论政策的总结:

我们将仇恨言论定义为基于我们所谓的受保护特征——种族、民族、民族出身、宗教信仰、性取向、种姓、生物性别、社会性别、性别认同以及严重疾病或残疾——对人们的直接攻击。我们也为移民身份提供一些保护。我们把攻击定义为暴力或非人道的言论,劣等感的发言,或排挤和隔离的要求。

这项政策的目的是保护人们,不让他们看到觉得受到攻击的内容。它不仅适用于针对特定个人的直接攻击(与2013年的政策不同),还禁止攻击“具有上述特征之一的群体”。

如果您认为这是合理的,那么您可能还没有仔细研究Facebook如何定义“攻击”。仅仅是表达说你不喜欢某人(例如,“我不喜欢信奉伊斯兰教法的穆斯林”)或应用某种形式的道德判断(例如,“伊斯兰原教旨主义者强行执行在女性生殖器切割野蛮的”),只要提到了“受保护特征”,在技术上就被认为是“二级”仇恨言论攻击,禁止在平台上出现。

这种社交媒体政策是危险的、不切实际的、不必要的。

*     *     *

仇恨言论政策的问题始于这样一个事实:没有一种原则可以公平一致地适用于区分什么言论是仇恨的,什么言论不是。仇恨是一种感觉,试图根据发言者是否感到仇恨制定一种政策是不可能的。正如任何与配偶或朋友争吵过的人所经历的那样,摸清某人的意图通常是非常困难的。

因此,仇恨言论政策很少就此打住。Facebook的政策还列出了一系列“受保护特征”,如果这些特征成为攻击目标,就构成了所谓的仇恨意图。但是,是什么让攻击这些特征变得特别可恶呢?这些受保护的特征从何而来?在美国,有九个受联邦政府保护的类别。加州保护12类。英国保护10类。Facebook公开选择了11类,但在内部他们定义了17类。事实上,任何受保护特征的列表本质上都是任意的。由于缺乏原则性的基础,这些名单只会随着时间的推移而扩大,当利益和身份群体声称自己受到了冒犯时,而机构迎合的是我们当中最敏感、最容易受到冒犯的群体。

这种政策转移的必然结果是,最终,任何人发现的任何轻微冒犯行为都将被禁止。马克•扎克伯格最近不仅发表了一篇似乎承认这一点的文章,还附上了一张易懂的示意图,描述了他们是如何开始对那些没有被禁止、只是处于边缘地带的内容进行降级的。

2018年11月15日,马克·扎克伯格发表题为《内容治理与执行蓝图》的文章。

几乎你能说的每句话对某些人来说构成冒犯。冒犯并不是一个明确的标准,比如即将发生的违法行为。它是主观的——当被冒犯的人看到它的时候,他们自己去指出它。

有一次,一位同事声称,我批评了Facebook最新的门洛·帕克(Menlo Park)办公室最近安装的一件艺术品这件事,冒犯了他们。他们解释说,作为一名跨性别女性,他们觉得该艺术品代表了他们的身份,告诉我他们“不在乎我的论证”,他们觉得被冒犯的事实足以让我道歉。冒犯(或声称冒犯)可以作为一种政治武器来使用:一个利益团体(或自封的某一利益团体的代表)声称被冒犯,并要求道歉——并暗含地要求在道德和政治上占上风。当我告诉我的同事,我说的都是认真的,我认为说我冒犯到了他们是不合理的,因此,我不会道歉,他们无言以对,对我无能为力。这可能会很尴尬,而且需要社交自信才能做到——我不想冒犯任何人——但另一种选择要糟糕得多。

以Facebook全球公共政策副总裁乔尔•卡普兰(Joel Kaplan)为例,他是最近提名的美国最高法院大法官布雷特•卡瓦诺(Brett kavanaughn)的密友,他在出席了卡瓦诺的国会听证会后,不必要地向Facebook员工道了歉。不出所料,在得到他的道歉后,暴徒们并没有退缩。相反,他们人数翻了一倍。一些人要求解雇卡普兰。其他人则建议Facebook向“我也是”捐赠。还有一些人以这一事件为借口痛斥高管。在一场有关这场争议的内部大会上,员工们打断了扎克伯格和谢丽尔·桑德伯格(Sheryl Sandberg)的谈话,大喊大叫,还充满敌意地指着他们,以至于几名长期员工都走开了,最后得出结论说,公司“需要一次文化重置”。这里的教训是,虽然“冒犯”肯定是人际交往中应该避免的,但它太主观、太容易被滥用,不适合作为一种政策标准来使用。

也许更重要的是,你不可能在不破坏提出新想法的基础的情况下禁止争议和冒犯。历史上有很多重要的观点,比如日心说和进化,尽管后来被证明是正确的,但却被认为是极具争议性和攻击性的,因为它们挑战了人们根深蒂固的信仰。冒着被冒犯的风险是我们为增进对世界的了解而付出的代价。

但假设你不关心受保护特征的滑坡效应,也不关心新思想特有的争议。但是如果在一个不允许人们犯错或冒犯他人的环境中,你已经确信的事实——例如,种族主义是令人憎恶的——是很难内化地,那么又如何呢?每一代人都必须为自己重新学习重要的真理(“真的吗,种族主义为什么不好?”)。随着年龄的增长,“无懈可击”的真理变得脆弱,容易受到公众的怀疑。为了保持我们价值观的力量,我们需要看着它们承受证据、争论和反驳的冲击。这种思想的自由交流不仅将为进步和个人理解创造必要的条件,而且还将培养许多现代文化所极度缺乏的韧性。

*     *     *

但现在让我们回到最基本的层面,关注Facebook的政策实际上是如何运作的。

当一篇文章在Facebook上被认为具有攻击性(或者被Facebook的自动化系统标记)时,它就会进入一个需要人为控制的内容队列。这个队列由一个大约8000人(很快将是15000人)的承包商团队处理。这些员工几乎没有相关的工作经验或教育背景,通常在世界各地的呼叫中心工作。他们对Facebook社区标准的主要培训是以1400页的规则的形式存在的,这些规则分布在数十个PowerPoint演示文稿和Excel电子表格中。许多工作人员使用谷歌翻译来理解这些规则。一旦经过训练,他们通常有8到10秒的时间来判定每个帖子。显然,他们不需要深入理解Facebook政策背后的哲学原理。

因此,他们经常做出错误的判定。这意味着对用户来说,每天对于内容审核的体验是不一致的。这就是为什么您自己对于内容审核的体验不仅可能感觉混乱,而且(实际上)几乎是随机的。不只是你。每个人都是这样。

不可避免的是,一些审核决定将会影响杰出的用户,或者挫伤大量的普通用户,使他们寻求媒体的关注。当这种情况发生时,案件在Facebook内部升级,一个更资深的员工会审查案件,考虑撤销审核决定。有时,这些规则被忽视,以使Facebook免受“公关风险”。在其他时候,当更有可能对Facebook进行罚款或监管的政府可能介入时,这些规定的适用就会更加严格。考虑到最初的审核决策是多么不一致和草率,所以经常发生逆转也就不足为奇了。一周又一周,尽管有额外的培训,我还是看到内容管理员删除了仅仅包含枪支照片的帖子——尽管政策只禁止枪支销售。很难夸大整个过程有多草率。

这样的事情是没有办法改进的。Facebook的许多人,怀着硅谷令人钦佩的雄心壮志,认为他们可以通过迭代(iteration)来解决这个问题。这是我在与Facebook领导层打交道时遇到的基本僵局:他们认为,他们将能够充分阐明相关政策,以确保政策执行一致,或者利用人工智能(AI)消除人类差异。这两种方法都是没有希望的。

当你有一个坚实的基础来构建和优化时,迭代是有效的。但是Facebook的仇恨言论政策并没有如此坚实的基础,因为“仇恨言论”一开始就不是一个有效的概念。它缺乏一个原则性的定义——这是必然的,因为“仇恨”言论与主观上冒犯性的言论是无法区分的——再多的迭代也无法改变这一点。

因此,仇恨言论的实施并没有人工智能可以解决的人类差异问题。机器学习(AI的相关形式)在数据清晰、一致且不需要人为判断或语境的情况下工作。例如,机器学习算法可以通过参考数百万其他正确识别的人脸图像来“学习”识别人脸。但仇恨言论政策和Facebook对其的强制执行绝不是清晰和一致的,关于它的一切都需要人类的判断力和语境。

举个例子:当Facebook开始决定是否效仿苹果封杀亚历克斯•琼斯(Alex Jones)的做法时,即便是一项有限的任务,也需要一组(人类)员工在查阅琼斯在Facebook上数个月的历史帖子,以找到可能被用来证明禁令合理性的越界内容。实际上,这项决定是出于政治原因作出的,这项工作基本上是多余的。人工智能在这类程序中没有帮助。

*     *     *

没有人喜欢仇恨的言论,当然也包括我。我不希望你、你的朋友或你所爱的人受到任何形式的攻击。我非常同情那些被攻击的人——尤其是那些由于无法改变的(在我看来并不重要)特征遭受攻击的人。这种攻击在道义上是令人反感的。我想我们都同意这一点。

但考虑到以上种种,我认为在这个问题上,我们正在为树木而失去森林。“仇恨言论”政策可能是危险和不切实际的,但反骚扰政策并非如此,它可以被清晰地定义和应用。禁止威胁、恐吓和煽动即将发生的暴力的法律也是如此。事实上,人们希望被仇恨言论政策所覆盖的大多数形式的人际虐待,例如针对个人、有针对性的攻击,已经被反骚扰政策和现行法律已经覆盖了。

所以真正的问题是:追究仇恨言论政策是否仍然有意义?我认为答案是一个响亮的“不”。如果完全废除这些政策,平台将会更好的服务用户。但是,既然所有迹象都表明平台在现有政策上加大了力度,用户该怎么办呢?

首先,重要的是要认识到,许多违反Facebook内容政策的内容永远不会被删除。例如,在今天,如果对宗教团体的道德批评导致被审查员强制执行,我将感到惊讶,尽管(正如我上文提到的)Facebook的政策在技术上是禁止这些内容的。这是一个短暂的时刻,因为Facebook正在积极地缩小这一差距,但与此同时,我鼓励你们不要让这些政策妨碍你们。说出你认为正确和真实的东西,让平台来处理。这些平台私人化的一个好处(尽管有些人呼吁将其视为“公共广场”)是,它们所能做的最糟糕的事情就是把你踢开。它们无法阻止你使用另一个平台,启动离线运动,或向媒体大声抱怨。最重要的是,他们一般不会把你关进监狱——至少在美国不会。

其次,在决定如何使用社交媒体时,我们应该充分考虑到这样一个背景:社交媒体对我们的生活既有非常大的好处,也有非常大的坏处。对我们大多数人来说,这既是好事也是坏事。事实是,社交媒体是一种新现象,坦率地说,包括我和我在Facebook的前同事在内,没有人知道如何完善它。Facebook应该承认这一点,并提醒所有人注意他们如何使用这个平台。

也就是说,你不应该等到Facebook弄明白如何正确地将你所看到的一切情景化(contextualize)。你可以也应该自己承担这个责任。具体地说,你应该认识到你发现的极其吸引人的东西和真实的东西是不一样的,更不用说什么是道德的,善良的,或公正的。坦白地承认这一点,对于正确构建使用社交媒体的智力和情感健康策略大有帮助。你被吸引的内容——以及Facebook的排名宣传的内容——可能是(或者不是)不道德的,不友好的,或者是错误的。这种警觉的意识建立了韧性和思考力,而不是依赖于一个潜在的奥威尔式的机构在一开始就将我们从思考中隔离出来。

不管这是否有帮助,我们都应该认识到,我们没有人有权让Facebook(或任何其他社交媒体服务)解决这些问题,让我们满意。像Twitter和YouTube一样,Facebook是一家私人公司,我们在完全自愿的基础上与之互动——这应该意味着“互惠互利”。作为客户,当我们认为他们搞砸了的时候,我们应该给他们反馈。但他们有道义上和法律上的权利忽略这些反馈。我们有权离开,有权寻找或建立替代平台,有权认为整个社交媒体不值得。

事实上,如果没有这些已经存在了十多年的平台,我们将很难生存,这表明它们对我们的生活和我们的生活方式产生了巨大的益处。但是,有些东西是有益的和重要的,这一事实并不使我们有权拥有它。我们也没有权利要求政府把我们的意志强加于拥有和经营这些服务的人。Facebook明天可能会关门不让我们买东西,就是这么回事。

无论如何,Facebook应该受到很多批评。但别忘了:我们正在请求他们改进。这是请求,不是命令。因此,让我们抑制权利(entitlement)意识。

同样,政府也应该尊重这一事实,即这些是私营公司,它们的平台是它们的财产。政府没有道义上或法律上的权利告诉他们如何运作,只要他们没有侵犯我们的权利——他们没有。根据上面的说法,无论我们从这些平台中获得了多少好处,或者我们可能会得出它们已经变得多么重要的结论,我们都没有权利得到它们,或者让它们按照我们希望的方式运行。就政府而言,这里没有侵犯权利的行为,就是这么回事。

许多人认为Facebook和其他平台所做的相当于“审查(censorship)”。“我不同意。归根结底,这是一个私人平台拒绝把你的想法带进他们的财产,与一个政府禁止你在任何地方发表你的想法,并以起诉相威胁之间的根本区别。它们绝不相同。前者令人厌恶、不明智,是的,甚至可能是悲剧性的机会丧失;后者侵犯了我们的言论自由。更重要的是,无论如何,一个政府监管体系是行不通的:言论政策的整个问题在于,让任何人替你决定什么言论是可以接受的,这是一个危险的想法。要求政府这样做,而不是Facebook,是在用一个坏主意交换一个真正奥威尔式的主意。这样的举动对言论自由的威胁将比我们迄今在美国看到的任何情况都严重得多。

不幸的是,Facebook和Twitter的高管都明确表示,他们认为监管是“不可避免的”。他们甚至主动提出帮助起草规则。但这些声明并没有赋予政府规范这些平台的道德权利。无论公司或个人是否邀请他人侵犯他们的权利,对于这种权利侵犯的合法性(道德上和法律上)来说都是无关紧要的。这种权利不能丧失。

此外,这些大型平台欢迎监管的事实不应让人感到意外。Facebook和Twitter是市场的守成者,进一步的监管只会巩固这一地位。强制实施政府制定的标准将削弱或禁止竞争,从而第一次有效地使它们在合法意义上成为垄断者。与潜在的新平台不同,Facebook和Twitter有足够的资金和员工来应对繁重、复杂和昂贵的新监管规定。它们可以雇佣数千人来审查内容,并且已经拥有一流的法律团队来应对合规方面的挑战。政府能做的最好的事情就是什么都不做。如果这是一个足够严重的问题——我认为是——竞争将会出现,如果它能够做到的话。

*     *     *

我们是第一个见证了这个平台的创建和发展的人,这个平台的用户比地球上任何一个国家的人口都多。随之而来的是令人难以置信的胜利和失败。我有幸在Facebook内部亲眼目睹了这一切,我学到的最大教训是:当不可思议的环境产生微妙的问题时,正是我们需要原则性思维的时候——而不是冲动、不务实、短视的行动。原则帮助我们在处理超出我们典型的直觉经验范围的复杂情况时,一致而正确地思考和行动。

这意味着平台、用户和政府需要回到它们的基本原则上来,问自己:平台在支持言论自由方面的作用是什么?用户必须对我们自己的知识和韧性承担什么责任?对我们的政府来说,保护我们的权利而不仅仅是“禁止坏事”意味着什么?这些都是我认为应该指导关于平台言论的问题一个有原则的方式。


Brian Amerige is a former senior engineering manager at Facebook. You can follow him on Twitter @brianamerige

Photo by AlexandraPopova / Shutterstock.

评论

此博客中的热门博文

《进击的巨人》作者谏山创2014年《Brutus》访谈

谏山创2013年专访