在互联网出现之前,有害内容就已经存在。但是,在线平台让有害内容的传播,比以往任何时候更快、更广、更容易。如果我们要在不压制言论自由的情况下,限制有害内容的传播,我们就需要基于人权原则的明确而全面的监管方法,否则即使是用心良苦设计的法规,最终也可能使弱势者噤声,并壮大强权,而全世界的独裁者都深谙此道。
首先,社交媒体公司必须在如何监管内容方面,采取更加合作的态度。这意味着它们要尽可能地公开分享信息,并通过经过核查的访问机制,或多方利益相关者的安排,如GNI为分享公司对政府要求的回应而建立的信息共享机制,向监管机构和独立专家提供合法的敏感信息。
庆幸的是,国际人权法为法规的制定提供了一套原则,让它在促进言论自由的同时铲除有害内容。为阐明这一过程,我们所在的组织“全球网络倡议”(Global Network Initiative,简称GNI),最近召集了来自各个行业和人权界的专家,研究了十几个国家的内容监管举措,并提出了相关建议。
有了这些信息,政府可以确保中间机构公平一致地审核内容。为此,获得适当资源和拥有专业知识的监管机构(最好是让相关专家和用户权利倡导者参与其中),应负责为内容审核制度提供指导和监督。同时,应该要求公司引入相关机制,让用户对他们所看到和分享的内容有更大的控制权。
无论法规是多么清晰和内容审核制度多么高效,监管者和公司都会犯错。这就是为什么我们最后需要争端解决机制和补救措施。公司应允许用户就内容审核决定向独立机构提出上诉,并特别考虑儿童等弱势群体,以及记者等服务于公共利益的人群。政府和监管机构也应遵守透明和问责机制。
然而,立法者的努力也存在风险。规范网络领域的法规,既可以通过促进包容和知情的辩论来加强民主,也可能被滥用来抑制言论自由。
但是,归根结底,审核敏感内容的责任不应完全由私人公司承担。政府应让法院等民主问责机构负责。法国的《反信息操纵法》虽然不完善,但它在这一方面有所尝试,为法官提供了加快审查与选举有关的虚假信息的程序。这样,公司就无须做出这些困难而具有政治敏感性的决定。最近,法国宪法委员会驳回了一项针对网络仇恨言论的法律草案,部分原因是它回避了法院系统。
内容监管举措必须遵循的第一项人权原则是“合法性”(legality),它强调须通过民主程序来明确监管内容的定义。例如,坦桑尼亚的监管法规禁止“引起烦扰”的在线内容,以及其他定义含糊的危害,却没有明确定义监管内容。如果不明确什么内容是禁止的、什么是允许的,政府将尽可能地扩张其限制言论的权力,用户无法知道什么是合法行为,法院和公司也难以公平地执行法规。
但是,无论政府的法规如何,公司本身可以而且应该采用促进人权的规章制度。在这方面,透明度、正当程序和问责制至关重要。
版权所有:Project Syndicate, 2020
欧盟委员会最近公布的《数码服务法》(Digital Services Act)表明,世界各地的立法者正在努力解决极端主义、虚假信息和网络操控的问题。他们有充足理由这么做,因为这些问题近年来侵蚀了数码生态系统,扭曲了公共话语,并加深了两极分化。
作者David Kaye曾任联合国见解和言论自由问题(Freedom of Opinion and Expression)特别报告员,现任全球网络倡议(Global Network Initiative)的独立董事会主席;Jason Pielemeier是全球网络倡议的政策总监。
英文原题:The Right Way to Regulate Digital Harms
另一个至关重要的原则是“正当性”(legitimacy),它规定政府只能出于特殊的紧急原因,如关乎他人权利、公共卫生和公共秩序,才能够限制言论。然后,“必要性”(necessity)原则要求对限制进行调整,以实现这些正当目的,并使其与所保护的利益相称。如果有一个较少限制言论的法规可以做到这一点,就不应该采取任何内容监管措施。
注重人权的做法,有助于防止出现过于严重的结果。在这方面,欧盟关于防止恐怖主义和极端主义内容在网上传播的拟议法规,并没有做到这一点。该法规将要求所有类型和规模的公司,在一小时内删除恐怖主义内容,并采取积极措施过滤此类信息。占主导地位的公司可以落实此类法规,但这将增加新的创新者进入市场的障碍,并导致各种可接受的内容被过度删除。