没有人会认为,我是那种容易受虚假信息影响的人。那些人才会(愚蠢的反疫苗者!傲慢的自由派精英!)被伪装成新闻的宣传和在推特上推行党派议程的机器人大军所左右。
但是,最近的虚假信息宣传活动——尤其是那些源自俄罗斯或中国的协调机构的宣传活动——影响范围更大,也更隐蔽。这些活动利用表情包、被篡改的视频和模仿行为来引发愤怒和混乱,其目标超越了任何单一的选举或社区。这些努力旨在制造动荡,以破坏民主本身。如果我们都精神疲惫,并且对什么是真相存在分歧,那么专制网络就能更有效地推行他们的现实版本。利用“我们与他们”的对立动态,会让每个人更容易相信虚假的信念。
我们不能屈服于后真相世界的观念,而必须将这种所谓的“信息失序”视为一场紧迫的社会危机,并引入严谨的跨学科科学研究来解决这个问题。我们需要了解知识在网上的传播;国内外虚假信息网络的起源、动机和策略;以及即使是最有学识的证据寻求者也可能在不知不觉中成为影响力行动一部分的确切方式。例如,对于长期接触虚假信息的影响,或者它如何影响我们的大脑或投票行为,我们知之甚少。为了研究这些联系,Facebook、Twitter 和 Google 等科技巨头必须向独立研究人员提供更多数据(同时保护用户隐私)。
关于支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您将有助于确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
研究的速度必须努力赶上虚假信息策略快速增长的复杂性。一个积极的步骤是哈佛大学肯尼迪政府学院于 2019 年 1 月推出了《虚假信息评论》,这是一本多媒体形式的期刊,它加快了同行评审流程,并优先发表关于虚假信息在媒体、公共卫生和选举等领域的实际影响的文章。
必须对记者进行如何报道欺骗行为的培训,以免他们无意中使其根深蒂固,政府应加强其信息机构以进行反击。西方国家可以借鉴波罗的海国家的经验,了解其公民在过去十年中应对虚假信息的一些创新方法:例如,公民“精灵”志愿军揭露克里姆林宫“ trolls”的方法。少数族裔和历史上受压迫的社区也熟悉如何反击当局试图改写真相的行为。至关重要的是,技术专家应与社会科学家合作,提出干预措施——他们应该明智地设想攻击者可能如何阻挠这些工具或将其反过来用于自己的目的。
然而,最终,对于大多数虚假信息行动的成功而言,必须是社交网络的普通用户来分享视频、使用标签并添加到煽动性评论主题中。这意味着我们每个人都是现实战场上的一个节点。我们需要更加意识到我们的情绪和偏见是如何被精确利用的,并考虑是什么力量可能正在 провоцировать 我们放大分裂性信息。
因此,每次您想“喜欢”或分享一条内容时,请想象一个微小的“暂停”按钮悬停在 Facebook 上的点赞图标或 Twitter 上的转发符号上。点击它并问问自己,我是否在回应一个旨在将我标记为特定问题上的党派人士的表情包?我是否真的读过这篇文章,还是仅仅是对一个有趣或令人愤怒的标题做出反应?我分享这条信息仅仅是为了向我的朋友和同龄人展示我的身份,以通过点赞获得认可吗?如果是这样,哪些群体可能通过我的消费者数据、政治偏好和过去的行为了解 我,从而用强烈共鸣的内容来操纵我?
即使——尤其是在您对一个表情包的前提感到热情支持或厌恶时——也要问问自己,分享它是否值得冒着成为虚假信息传播者的风险,而这些虚假信息旨在分裂那些原本可能有很多共同之处的人。
很容易认为表情包是无害的娱乐,而不是民主与专制之间战斗中的强大叙事武器。但这些是新的全球信息战的工具之一,并且它们只会随着机器学习的进步而发展。如果研究人员能够弄清楚是什么能让人暂停反思,那么这可能是维护公共讨论和重获思想自由的最有效方法之一。