
以下文章经许可转载自 The Conversation,这是一个报道最新研究的在线出版物。
我和我的同事们发现,人们与在线算法的日常互动 影响了他们如何向他人学习,其负面后果包括社会误解、冲突和虚假信息的传播。
关于支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。 通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和思想的具有影响力的故事的未来。
人们越来越多地在社交媒体环境中与他人互动,在这些环境中,算法控制着他们看到的社交信息流。算法部分决定了社交媒体用户看到哪些信息、哪些人和哪些想法。
在社交媒体平台上,算法主要 旨在放大维持参与度的信息,这意味着它们让人们不断点击内容并返回平台。 我是一名 社会心理学家,我和我的同事们发现了证据,表明这种设计的一个副作用是算法放大了人们强烈倾向于学习的信息。 我们将此信息称为“PRIME”,代表着声望(prestigious)、群体内(in-group)、道德(moral)和情感(emotional)信息。
在我们的进化史中,学习 PRIME 信息的偏见非常有利: 向有声望的人学习是高效的 ,因为这些人是成功的,他们的行为可以被复制。 关注违反道德规范的人很重要,因为 制裁他们有助于社区维持合作。
但是,当 PRIME 信息被算法放大,并且有些人利用算法放大来推销自己时,会发生什么? 声望变得难以作为成功的信号,因为人们可以在社交媒体上伪造声望。 新闻提要充斥着负面和道德信息,导致冲突而非合作。
人类心理学和算法放大的相互作用导致功能失调,因为社会学习支持合作和解决问题,但社交媒体算法旨在增加参与度。 我们将这种不匹配称为 功能错位。
为何重要
算法介导的社会学习中功能错位的关键结果之一是,人们开始对他们的社会世界形成不正确的认知。 例如,最近的研究表明,当算法有选择地放大更极端的政治观点时,人们开始 认为他们的政治群体内和群体外比实际情况更加分裂。 这种“虚假两极分化”可能成为 更大的政治冲突的重要来源。
功能错位也可能导致虚假信息传播更广。 最近的一项研究表明,传播 政治虚假信息的人利用道德和情感信息 ——例如,引发道德愤怒的帖子——以便让人们更多地分享它。 当算法放大道德和情感信息时,虚假信息也会被纳入放大范围。
正在进行的其他研究
总的来说,关于这个主题的研究仍处于起步阶段,但正在出现新的研究, examining 算法介导的社会学习的关键组成部分。 一些研究表明, 社交媒体算法显然放大了 PRIME 信息。
这种放大是否会导致线下两极分化目前备受争议。 最近的一项实验发现证据表明 Meta 的新闻提要增加了两极分化,但另一项与 Meta 合作的实验 发现没有证据表明 由于接触其算法 Facebook 新闻提要而导致两极分化加剧。
需要进行更多研究,以充分了解当人类和算法在社会学习的反馈循环中互动时出现的后果。 社交媒体公司拥有大部分所需数据,我相信他们应该在平衡隐私等伦理问题的同时,让学术研究人员访问这些数据。
下一步是什么
一个关键问题是如何使算法促进准确的人类社会学习,而不是利用社会学习偏差。 我的研究团队正在研究新的算法设计,这些设计在增加参与度的同时 也惩罚 PRIME 信息。 我们认为,这可能会维持社交媒体平台寻求的用户活动,同时也使人们的社会认知更加准确。
本文最初发表于 The Conversation。 阅读 原文。