脸书举报人作证称公司算法存在危险:原因在此

弗朗西丝·豪根证实了最大化用户参与度尝试所造成的负面影响

Frances Haugen testifying.

前脸书员工和举报人弗朗西丝·豪根于 2021 年 10 月 5 日在华盛顿特区国会山作证。

以下文章经许可转载自 The Conversation这是一个报道最新研究的在线出版物。

前脸书产品经理弗朗西丝·豪根于 2021 年 10 月 5 日在美国参议院作证时表示,该公司社交媒体平台“危害儿童,煽动分裂并削弱我们的民主”。


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻工作 订阅。 通过购买订阅,您正在帮助确保未来能够看到关于塑造当今世界的发现和想法的有影响力的故事。


豪根是《华尔街日报》对该公司进行揭露的主要来源。她称脸书的算法很危险,表示脸书高管意识到这种威胁,但将利润置于人民之上,并呼吁国会监管该公司。

社交媒体平台严重依赖人们的行为来决定您看到的内容。特别是,他们会关注人们通过点赞、评论和分享来回应或“参与”的内容。 水军农场,即传播煽动性内容的组织,通过复制高参与度内容并 将其作为自己的内容发布 来利用这一点,这有助于他们接触到广泛的受众。

作为一名 计算机科学家,我研究了大量人群使用技术互动的方式,我理解在这些算法中使用 群体智慧 的逻辑。我也看到社交媒体公司在实践中这样做存在重大缺陷。

从稀树草原上的狮子到脸书上的点赞

群体智慧的概念假设,使用来自他人行为、观点和偏好的信号作为指导将导致合理的决策。 例如,集体预测 通常比个人预测更准确。集体智慧被用来预测 金融市场,体育选举 甚至 疾病爆发

在数百万年的进化过程中,这些原则以认知偏差的形式被编码到人脑中,这些认知偏差的名称包括 熟悉度单纯接触效应从众效应。如果每个人都开始奔跑,您也应该开始奔跑;也许有人看到狮子来了,奔跑可以救您的命。您可能不知道为什么,但稍后提出问题更明智。

您的大脑会从环境中(包括您的同伴)获取线索,并使用 简单的规则 来快速将这些信号转化为决策:与赢家同行、遵循大多数人、复制您的邻居。这些规则在典型情况下效果非常好,因为它们基于合理的假设。例如,它们假设人们通常会理性行事、许多人不太可能犯错、过去可以预测未来等等。

技术允许人们从数量更多的人那里获取信号,而他们中的大多数人都不认识。人工智能应用程序大量使用这些受欢迎程度或“参与度”信号,从选择搜索引擎结果到推荐音乐和视频,以及从建议好友到对新闻订阅源中的帖子进行排名。

并非所有走红的内容都值得走红

我们的研究表明,几乎所有的网络技术平台,例如社交媒体和新闻推荐系统,都具有很强的 受欢迎程度偏差。当应用程序由参与度等提示驱动,而不是由显式搜索引擎查询驱动时,受欢迎程度偏差可能会导致有害的意外后果。

像脸书、Instagram、Twitter、YouTube 和 TikTok 等社交媒体严重依赖人工智能算法来对内容进行排名和推荐。 这些算法会将您喜欢、评论和分享的内容(换句话说,就是您参与的内容)作为输入。这些算法的目标是通过找出人们喜欢的内容并将其排在他们订阅源的顶部来最大化参与度。

脸书算法入门。

表面上看这似乎是合理的。如果人们喜欢可信的新闻、专家意见和有趣的视频,那么这些算法应该识别出这种高质量的内容。但是,群体智慧在这里做了一个关键假设:推荐受欢迎的内容将有助于高质量的内容“浮出水面”。

我们通过研究一种使用质量和受欢迎程度相结合来对项目进行排名的算法,测试了这个假设。我们发现,一般来说,受欢迎程度偏差更有可能降低内容的整体质量。原因是,当很少有人接触到某个项目时,参与度并不是质量的可靠指标。在这些情况下,参与度会产生嘈杂的信号,并且该算法可能会放大这种初始噪音。一旦低质量项目的受欢迎程度足够大,它将继续被放大。

算法并不是唯一受参与度偏差影响的因素,它也可能 影响人们。证据表明,信息是通过“复杂传染”传播的,这意味着人们在网上接触某个想法的次数越多,他们就越有可能采用并重新分享它。当社交媒体告诉人们某个项目即将走红时,他们的认知偏差就会发挥作用,并转化为一种不可抗拒的冲动,即关注它并分享它。

不太明智的群体

我们最近使用 一个名为 Fakey 的新闻素养应用程序 进行了一项实验。这是一个由我们的实验室开发的游戏,它模拟了脸书和推特的新闻订阅源。玩家会看到来自假新闻、垃圾科学、极端党派和阴谋论来源以及主流来源的当前文章的混合内容。他们因分享或喜欢来自可靠来源的新闻以及标记低可信度文章以进行事实核查而获得积分。

我们发现,当玩家可以看到许多其他用户参与了这些文章时,玩家 更有可能喜欢或分享文章,而不太可能标记 来自低可信度来源的文章。因此,接触到参与度指标会造成漏洞。

群体智慧之所以失败,是因为它建立在群体是由多样化的独立来源组成的错误假设之上。这可能有几个原因。

首先,由于人们倾向于与相似的人交往,他们的在线社区不是很多样化。社交媒体用户可以轻松地取消与他们意见不合的人的好友关系,这会将人们推入同质化的社区,通常被称为 回音室

其次,由于许多人的朋友是彼此的朋友,他们会相互影响。 一项 著名的实验 表明,了解您的朋友喜欢什么音乐会影响您自己声明的偏好。 您渴望保持一致的社会愿望会扭曲您的独立判断。

第三,受欢迎程度信号可能会被操控。多年来,搜索引擎开发了复杂的技术来对抗所谓的“链接农场”和其他操纵搜索算法的计划。 另一方面,社交媒体平台才刚刚开始了解它们自己的 漏洞

旨在操纵信息市场的人员创建了 虚假帐户,如水军和 社交机器人,以及 有组织虚假网络。他们已经 淹没了网络,以营造一种 阴谋论政治候选人 很受欢迎的假象,从而同时欺骗了平台算法和人们的认知偏差。他们甚至 改变了社交网络的结构,以制造 关于多数意见的错觉

降低参与度

该怎么办?科技平台目前处于守势。 他们在选举期间变得更加 激进取缔虚假账户和有害的虚假信息。 但这些努力可能类似于一场 打地鼠 游戏。

另一种预防方法是增加 摩擦。 换句话说,减慢信息传播的速度。 诸如自动点赞和分享等高频率行为可能会受到 CAPTCHA 测试(需要人工响应)或费用的抑制。 这不仅会减少操纵的机会,而且随着信息减少,人们将能够更多地关注他们看到的内容。 这将减少参与度偏差影响人们决策的空间。

如果社交媒体公司调整其算法,减少对参与度信号的依赖,而更多地依赖质量信号来确定它们为您提供的内容,这将有所帮助。 也许举报人的爆料将提供必要的推动力。

本文最初发表于 The Conversation阅读 原始文章

Filippo Menczer is Distinguished Professor of Informatics and Computer Science and director of the Observatory on Social Media at Indiana University Bloomington. He studies the spread of disinformation and develops tools for countering social media manipulation.

More by Filippo Menczer

Curated by professional editors, The Conversation offers informed commentary and debate on the issues affecting our world.

More by The Conversation US
© . All rights reserved.