俗话说,谎言传千里,真相还在穿鞋。本周,当Facebook的母公司Meta宣布计划放弃该平台的事实核查计划时,挑战在线谎言和虚假信息的征程变得更加艰难。该计划于2016年设立,旨在付费给独立团体以验证选定的文章和帖子。
该公司表示,此举是为了 противодействие 事实核查者的政治偏见和审查。“专家和所有人一样,都有自己的偏见和观点。这体现在他们对事实核查内容和方式的选择上,”Meta首席全球事务官乔尔·卡普兰在1月7日写道。
《自然》杂志与传播和虚假信息研究人员探讨了事实核查的价值、感知偏见的来源以及Meta的决定可能意味着什么。
关于支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您将帮助确保未来能够继续讲述关于塑造我们当今世界的发现和思想的具有影响力的故事。
积极影响
剑桥大学的社会心理学家桑德·范德林登说,在帮助人们相信信息是真实可信方面,“事实核查确实有效”。他于2022年担任Facebook事实核查计划的无偿顾问。“研究提供了非常一致的证据,表明事实核查至少在一定程度上减少了对虚假主张的误解。”
例如,2019年一项针对超过20,000人的事实核查有效性的元分析发现,事实核查对政治信仰具有“显著的积极总体影响”。
范德林登补充说:“理想情况下,我们希望人们从一开始就不要形成误解。“但是,如果我们不得不面对人们已经接触到误解的现实,那么减少误解几乎和避免误解一样好。”
纽约市纽约大学的心理学家杰伊·范·巴维尔说,当问题两极分化时,事实核查的效果会降低。“如果你正在对英国脱欧或美国大选等问题进行事实核查,那么事实核查的效果就不会很好,”他说。“部分原因是党派人士不想相信会让他们的政党看起来很糟糕的事情。”
但即使事实核查似乎并没有改变人们对有争议问题的看法,它们仍然可能有所帮助,前事实核查员、现任纽约市康奈尔科技学院安全、信任和安全倡议主任亚历克西奥斯·曼扎利斯说。
曼扎利斯说,在Facebook上,被事实核查员认定为虚假的文章和帖子目前会被标记警告。平台建议算法也会减少向用户展示这些内容,而且人们更有可能忽略被标记的内容,而不是阅读和分享它。
华盛顿州西雅图市华盛顿大学的计算机科学家凯特·斯塔伯德说,将帖子标记为有问题也可能对其他用户产生连锁反应,而这些反应并未被事实核查有效性研究捕捉到。“衡量标签对用户信念和行为的直接影响,与衡量在信息生态系统中进行这些事实核查的更广泛影响是不同的,”她补充说。
更多虚假信息,更多红旗
关于Meta声称事实核查员存在偏见的问题,范·巴维尔同意,来自政治右翼的虚假信息确实比来自左翼的虚假信息更频繁地受到事实核查并被标记为有问题——在Facebook和其他平台上。但他提供了一个简单的解释。
“这主要是因为保守派的虚假信息传播得更多,”他说。“当一个政党(至少在美国)传播了大部分虚假信息时,看起来事实核查是有偏见的,因为他们被点名的次数要多得多。”
有数据支持这一点。《自然》杂志去年发表的一项研究表明,尽管在X(前身为Twitter)上,政治立场保守的人比自由派人士更容易被平台封禁,但他们也更有可能分享来自被代表性平民群体评判为低质量的新闻网站的信息。
“如果你想知道一个人是否在网上接触到虚假信息,那么了解他们是否是政治上的保守派是最好的预测因素,”纽约州伊萨卡市康奈尔大学的心理学家戈登·彭尼库克说,他参与了这项分析。
实施很重要
Meta首席执行官马克·扎克伯格曾表示,Facebook可以采用类似于X使用的“社区注释”系统来取代第三方事实核查,在该系统中,更正和背景信息由用户众包并添加到帖子中。
研究表明,这些系统在一定程度上也可以纠正虚假信息。“它在X上的实施方式实际上效果不佳,”范德林登说。他指出去年完成的一项分析,该分析发现X上的社区注释通常添加到有问题帖子中的时间太晚,无法减少互动,因为它们是在虚假声明已经广泛传播之后才出现的。X产品副总裁基思·科尔曼去年告诉路透社,社区注释“保持了很高的标准,以使注释有效并维持信任”。
“众包是一个有用的解决方案,但在实践中,这在很大程度上取决于如何实施,”范德林登补充说。“用社区注释取代事实核查似乎只会让情况变得更糟。”
本文经许可转载,并于2025年1月10日首次发表。