从感恩节晚餐对话到流行文化讨论,人们很容易感觉到,持有不同政治意识形态的个体占据着完全不同的世界,尤其是在网上。人们常常将算法——塑造在线环境的无形规则集,从社交媒体到搜索引擎——归咎于将用户隔离到数字“过滤气泡”中,通过向我们推送强化我们既有世界观的内容。
算法总是带有偏见的:研究表明,Facebook 广告针对特定的种族和性别人口。约会应用程序根据用户之前的滑动历史记录选择匹配对象。搜索引擎优先显示链接,基于它们认为最相关的因素。但根据新的研究,并非所有算法都会驱动政治极化。
今天发表在《自然》杂志上的一项研究发现,谷歌的搜索引擎不会返回不成比例的党派结果。相反,政治立场两极分化的谷歌用户倾向于通过点击党派新闻网站的链接来将自己隔离起来。这些发现表明,至少在谷歌搜索方面,人们可能比之前认为的更容易逃离在线回音室——但前提是他们选择这样做。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们今天世界的发现和思想的有影响力的故事。
算法渗透到我们在线存在的几乎方方面面——并且有能力塑造我们看待周围世界的方式。“它们确实对我们如何消费信息以及因此如何形成观点产生一定的影响,”罗格斯大学的传播研究员、新研究的合著者凯瑟琳·奥格尼亚诺娃说。
但这些程序在多大程度上驱动政治极化有时难以量化。奥格尼亚诺娃说,算法可能会查看“你是谁,你在哪里,你正在使用哪种设备搜索,地理位置,语言”。“但我们并不真正确切地知道算法是如何工作的。它是一个黑匣子。”
大多数分析算法驱动的政治极化的研究都集中在社交媒体平台(如 Twitter 和 Facebook)而非搜索引擎上。这是因为,直到最近,研究人员更容易从具有面向公众的软件界面的社交媒体网站获取可用数据。“对于搜索引擎,没有这样的工具,”马里兰大学即将上任的媒体与民主助理教授丹尼尔·特里埃利说,他没有参与这项研究。
但奥格尼亚诺娃和她的合著者找到了一种绕过这个问题的方法。他们没有依赖匿名公共数据,而是向志愿者发送了一个浏览器扩展程序,该程序记录了他们在几个月内所有的谷歌搜索结果——以及他们从这些页面点击的链接。该扩展程序就像拍摄动物的后院相机陷阱——在这种情况下,它提供了填充每个参与者在线环境的所有内容的快照。
研究人员收集了数百名谷歌用户在 2018 年美国中期选举前三个月和 2020 年美国总统大选前九个月的数据。然后,他们分析了收集到的数据与参与者的年龄和自我报告的政治倾向(在一到七的量表上排名,从坚定的民主党人到坚定的共和党人)之间的关系。亚利桑那大学的计算社会科学家约塔姆·什马加德(未参与该研究团队)称这种方法“具有开创性”,因为它将参与者搜索活动的真实行为数据与关于其政治倾向的调查信息融合在一起。
宾夕法尼亚大学网络安全研究员霍玛·侯赛因马迪(也未参与该研究)表示,这种类型的实地数据从政策制定的角度来看也极其宝贵。为了确保像谷歌这样的搜索引擎巨头——每天的查询量超过 85 亿次——以人们的最佳利益为出发点运行,仅仅了解算法的工作原理是不够的。“你需要看到人们是如何使用算法的,”侯赛因马迪说。
虽然许多立法者目前正在推动大型科技公司公开其匿名用户数据,但一些研究人员担心,这将激励平台发布误导性、有偏差或不完整的信息。一个值得注意的例子是,当 Meta 聘请了一个科学家团队来调查该平台与民主和政治极化的关系,然后未能提供承诺分享的一半数据时。“我认为直接去找用户更有意义,”斯坦福大学的网络科学家、新研究的主要作者罗纳德·罗伯逊说。
最终,该团队发现,快速的谷歌搜索并没有根据用户的政治倾向为用户提供一系列新闻报道。“谷歌在总体上并没有做太多的个性化,”罗伯逊说。“如果个性化程度很低,那么也许算法并没有真正改变页面那么多。”相反,立场坚定的党派用户更可能点击符合他们既有世界观的党派链接。
这并不意味着谷歌的算法是完美无缺的。研究人员注意到,不可靠或完全具有误导性的新闻来源仍然会出现在结果中,无论用户是否与它们互动。“在其他情况下,谷歌也做过相当成问题的事情,”罗伯逊说,包括在其图像搜索结果中大幅低估有色人种女性的代表性。
谷歌的一位发言人表示,该公司“赞赏研究人员在新研究中所做的工作”。在一份电子邮件声明中,该公司表示,它试图使其算法“相关且可靠”。它表示,搜索功能并非旨在推断敏感信息——种族、宗教或政治派别——在其结果中。
什马加德指出,如果将研究数据细化到更精细的层面,它们并非完全没有偏差。“看起来跨党派界限没有发生太多算法偏差,”他说,“但可能在年龄组之间存在一些算法偏差。”
与其他年龄组相比,65 岁及以上的用户在谷歌搜索结果中更容易受到右倾链接的影响,而与他们的政治身份无关。然而,由于这种影响很小,并且最年长的年龄组仅占总参与者的约五分之一,因此,更大的曝光率对研究总体结果的影响在宏观分析中消失了。
尽管如此,这些发现反映了越来越多的研究表明,算法在创建政治信息茧房中的作用可能被夸大了。“我不反对指责平台,”特里埃利说。“但令人不安的是,要知道这不仅仅是确保平台行为良好。我们个人过滤我们阅读内容以适应我们政治偏见的动机仍然强烈。”
“我们也希望被分裂,”特里埃利补充道。
奥格尼亚诺娃说,一线希望是“这项研究表明,人们逃离[意识形态]信息茧房并非那么困难。” 也许是这样。但首先他们必须想要逃离。