是时候放弃解决社交媒体的错误信息问题了

2024-08-13 08:12来源:本站

  

  

  如果你不相信社交媒体,你应该知道你并不孤单。世界各地接受调查的大多数人都有同样的感觉——事实上,他们这么说已经有十年了。在Facebook和x等平台上,显然存在虚假信息和危险言论的问题。在今年任期结束之前,最高法院可能会重新定义如何处理这一问题。

  在过去的几周里,最高法院听取了三起涉及控制政治言论和网络错误信息的案件的辩论。在上个月审理的前两起案件中,德克萨斯州和佛罗里达州的立法者声称,Facebook等平台有选择地删除了其版主认为有害或违反其服务条款的政治内容;科技公司辩称,它们有权控制用户看到的内容。与此同时,一些政策制定者认为,内容审核做得还不够,错误信息仍然很容易通过社交网络传播;政府官员是否(以及如何)可以直接与技术平台就删除此类内容进行沟通,这是本周提交法院审理的第三起案件的争议所在。

  我们是研究社交媒体和平台设计的哈佛经济学家。(我们中的斯科特·杜克·科米纳斯(Scott Duke Kominers)也是投资社交平台的风险投资公司a16z的加密部门的研究合伙人,也是Quora的顾问。)我们的研究为关于节制的分歧提供了一个可能违反直觉的解决方案:平台应该放弃试图阻止纯粹虚假信息的传播,而是专注于防止可能被用来造成伤害的信息的传播。这些是相关的问题,但它们并不相同。

  随着总统大选的临近,科技平台正在为大量错误信息做准备。民间社会组织表示,平台需要一个更好的计划来打击选举错误信息,一些学者预计,今年这一问题将达到新的高度。平台表示,他们有保证网站安全的计划,然而,尽管在内容审核、事实核查等方面投入了大量资源,人们还是很难摆脱一种感觉,即科技巨头正在输掉这场战斗。

  问题在于:平台有权屏蔽、标记或屏蔽他们认为是虚假的内容。但屏蔽或标记虚假内容并不一定会阻止用户相信它。事实上,因为许多最有害的谎言被那些倾向于不信任“建制派”的人所相信,阻止或标记虚假声明甚至会让事情变得更糟。

  2020年12月19日,时任总统唐纳德·特朗普在华盛顿特区发布了一条现在臭名昭著的关于选举欺诈的信息,告诉读者1月6日“去那里”。如果你今天在Facebook上访问那篇文章,你会看到该平台本身的一个冷静的注释:“美国有法律、程序和既定机构来确保我们选举的公正性。”这份免责声明来自两党政策中心。但是,真的有人会相信,1月6日冲进国会大厦的人们,以及为他们欢呼的许多其他人,会相信乔·拜登(Joe Biden)获胜,仅仅是因为两党政策中心(Bipartisan Policy Center)告诉Facebook,一切都很好吗?

  我们的研究表明,这个问题是内在的:除非平台的用户信任平台的动机和过程,否则平台的任何行动都可能看起来像证据。为了得出这个结论,我们建立了一个数学模型。在该模型中,一个用户(“发送方”)试图向另一个用户(“接收方”)提出索赔。这种说法可能是真的,也可能是假的,可能是有害的,也可能不是。在两个用户之间是一个平台——或者可能是一个代表它的算法——如果它想的话,可以屏蔽发送者的内容。

  我们想知道什么时候屏蔽内容可以改善结果,而不会让结果变得更糟。我们的模型,像所有的模型一样,是一个抽象,因此不能完美地捕捉到实际交互的复杂性。但是因为我们想要考虑所有可能的政策,而不仅仅是那些已经在实践中尝试过的政策,我们的问题不能仅仅通过数据来回答。因此,我们转而使用数学逻辑来处理它,将模型视为一种风洞,以测试不同政策的有效性。

  我们的分析表明,如果用户相信平台知道什么是正确的,做什么是正确的(平台确实知道什么是真的,什么是假的),那么平台就可以成功地消除错误信息。逻辑很简单:如果用户相信这个平台是仁慈的、无所不知的,那么如果某些东西被屏蔽或标记,那它一定是假的,如果它被放行,那它一定是真的。

  然而,你可以看到问题所在:正如前面提到的调查所表明的那样,许多用户不信任大型科技平台。当用户不信任一个平台时,即使是善意的尝试也会让事情变得更糟。当钻井平台似乎在偏袒某一方时,这可能会给他们试图扑灭的大火火上浇油。

  这是否意味着内容审核总是适得其反?远非如此。我们的分析还表明,当适度屏蔽可能被用来做有害事情的信息时,它是非常有效的。

  回到特朗普2020年12月关于选举舞弊的帖子,想象一下,该平台没有提醒用户注意两党政策中心的清醒结论,而是让特朗普更难传达支持者集会的日期(1月6日)和地点(华盛顿特区)。封锁这些信息并不能阻止用户相信选举是被窃取的——相反,它可能会助长科技行业精英试图影响选举结果的说法。然而,让协调行动地点和时间变得更加困难,可能有助于减缓最终起义的势头,从而限制哨所在现实世界中的危害。

  与删除错误信息本身不同,即使用户根本不相信平台的动机,删除可能造成伤害的信息也能起作用。当信息本身造成伤害时,屏蔽信息也会屏蔽伤害。类似的逻辑也适用于其他类型的有害内容,如色情和仇恨言论。在那里,内容本身——而不是它所鼓励的信仰——才是危害的根源,平台确实成功地缓和了这些类型的内容。

  我们希望科技公司来决定什么是有害的,什么是无害的吗?也许不是;挑战和缺点是显而易见的。但是,平台已经例行地对伤害做出判断——在特定地点和时间召集集会的帖子包含暴力一词是否属于煽动暴力,或者宣布举办户外音乐会?显然是后者,如果你想看暴力女演员的话。通常情况下,上下文和语言使这些判断足够明显,以至于算法可以确定它们。当这种情况没有发生时,平台可以依靠内部专家甚至独立机构,比如meta的监督委员会,该委员会负责处理与公司内容政策相关的棘手案件。

  如果平台接受我们的推理,它们就可以把资源从被误导的判断对错的任务上转移到仍然困难但更务实的判断什么会造成伤害的任务上。尽管错误信息是一个巨大的问题,但这不是平台可以解决的问题。平台可以通过专注于内容审核能做什么,放弃它不能做什么,来帮助我们保持安全。

喜临门声明:未经许可,不得转载。