本文发表在《大众科学》的前博客网络中,反映了作者的观点,不一定反映《大众科学》的观点
剑桥分析公司的丑闻不仅仅是 Facebook 高管所定义的“违规”行为。它例证了利用在线数据以算法方式预测和影响人类行为的可能性,并且这种影响会绕过用户对此类影响的意识。通过一个中间应用程序,剑桥分析公司能够收集大量数据——超过 5000 万个原始个人资料——并使用大数据分析来创建心理档案,以便随后使用定制的数字广告和其他操纵性信息来定位用户。据一些观察人士称,这种大规模数据分析策略可能被用来有目的地影响世界各地的竞选活动。报告仍然不完整,未来几天可能会有更多信息浮出水面。
虽然规模和范围不同,但这场丑闻并非完全新鲜。2014 年,Facebook 与康奈尔大学的研究人员对近 70 万不知情用户进行了一项大规模的在线社会心理实验,以算法方式修改他们的动态消息,以观察他们情绪的变化。这项研究结果发表在著名的《美国国家科学院院刊 (PNAS)》 上,显示了社交网络能够在用户不知情的情况下大规模地使人们更快乐或更悲伤的能力——这种现象被称为“情绪传染”。正如剑桥分析公司的案例一样,Facebook 的情绪传染研究引发了严厉批评,专家呼吁对社交计算研究制定新的监督和问责标准。
这两个不同案例的共同教训是,Facebook 的隐私政策并非数据保护的绝对保证:在 2014 年,它允许将数据重复用于研究目的,即使“研究”在数据收集时没有列出在公司的《数据使用政策》中。几年后,它允许一个滥用的应用程序不仅收集注册用户的资料,还收集他们朋友的资料。马克·扎克伯格本人也承认数据没有得到应有的保护。然而,在试图理解这场丑闻时,还有两个比数据保护更微妙的考虑因素
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过 订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您将有助于确保有关当今塑造我们世界的发现和想法的有影响力的故事的未来。
首先,接受服务条款 (ToS) 和隐私政策 (PP) 是使用大多数在线服务(包括 Facebook)的先决条件。尽管如此,大多数人接受 ToS 时甚至没有滚动到页面末尾,这已不是什么秘密。这种众所周知的现象引发了一个问题,即在线协议是否符合知情同意的条件。伯格鲁恩奖得主奥诺拉·奥尼尔认为,“同意程序的要点是限制欺骗和胁迫”,因此它们应该被设计为让人们“控制他们接收的信息量,并有机会撤销已给予的同意”。
从 Facebook 和 Twitter 等最主流的在线服务到剑桥分析公司等最可疑的在线服务,似乎都恰恰相反。正如一家德国法院最近裁定,在注册该服务之前,无法保证人们充分了解 Facebook 与隐私相关的选项,因此知情同意可能会受到损害。最重要的是,该平台托管了一些活动,这些活动使用在线操纵来减少人们对其生成或接收的信息的理性控制,无论是微定向广告还是传播虚假新闻的社交机器人的形式。欺骗不是被限制,而是被正常化。
在这个以削弱同意为特征的不断发展的在线环境中,传统的数据保护措施可能是不够的。数据用于什么目的不太可能由最初提供数据的用户来控制。数据访问委员会、监控委员会和其他机制更有可能控制和回应不良用途。这些机制必须成为更系统性的监督计划的一部分,该计划贯穿整个监管活动的连续统一体,并应对数据使用生命周期中发生的意外事件。这种方法可以针对在线数据生态系统中出现的新型风险和新兴形式的脆弱性。
第二个考虑因素是,不仅剑桥分析公司,而且当前的大部分在线生态系统,都是一场针对无意识思维的军备竞赛:通知、微定向广告、自动播放插件都是旨在诱导成瘾行为,从而进行操控的策略。研究人员呼吁建立自适应监管框架,可以限制使用实验性神经技术从某人的大脑中提取信息并对其进行调节。社交计算表明,你不必非要读取人们的大脑才能影响他们的选择。收集和挖掘他们经常(并且通常在不知不觉中)在网上分享的数据就足够了。
因此,我们需要考虑是否应该为数字空间设定一个关于认知自由的明确界限。认知自由强调控制个人认知维度(包括偏好、选择和信念)的自由,以及免受旨在绕过个人认知防御的操纵性策略的保护。这正是剑桥分析公司试图做的事情,正如他们的总经理在第四频道新闻的卧底调查中透露的那样:该公司承认,他们的目标是利用“两个基本的人类驱动因素”(即“希望和恐惧”,这些通常是“不言说的甚至无意识的”)来“有效地获取信息”。
试图操纵他人的无意识思维和相关行为与人类历史一样古老。在古希腊,柏拉图警告人们提防煽动者:他们通过迎合民众的欲望和偏见而不是理性审议来建立共识的政治领导人。然而,古代雅典的煽动者可以用来绕过理性审议的唯一工具是说服的艺术。
在今天的数字生态系统中,想要成为煽动者的人可以利用大数据分析来揭示来自大型用户数据集的认知脆弱性,并以绕过个人理性控制的方式有效地利用它们。例如,机器学习可以用来识别预先分组的用户群体中根深蒂固的恐惧,然后社交媒体机器人可以利用这些恐惧来煽动愤怒和不容忍。
最近通过的欧盟《通用数据保护条例》及其目的限制原则(数据收集者必须在收集个人信息时说明收集目的)可能会部分缓解当前有害的数字环境。然而,确定说服的终点和操纵的起点在哪里,正如欧洲数据保护监管机构 (EDPS)最近承认的那样,这是一个“远远超出数据保护权利”的问题。
EDPS 强调,微定向和其他在线策略“指向在线环境中的一种操纵文化”,其中“大多数人不知道他们是如何被利用的”。如果鲁莽地应用于选举领域,它们甚至可能减少“辩论和思想交流的空间”,这种风险“迫切需要在政治竞选和决策中使用和利用数据进行民主辩论”。去年,国际专家讨论了民主是否会在大数据和人工智能中幸存下来的问题。答案将部分取决于我们如何管理数据流并保护个人思想的自由。