人类从人工智能中吸收偏见——并在停止使用算法后仍然保留

人们可能会学习和复制人工智能算法的偏见视角,并且他们在与人工智能互动之外仍然保留这种偏见

Android with AI scans a person's idea

人工智能程序,就像开发和训练它们的人类一样,远非完美。无论是分析医学图像的机器学习软件,还是像ChatGPT这样进行看似自然的对话的生成式聊天机器人,基于算法的技术都可能出错,甚至“产生幻觉”,或提供不准确的信息。更阴险的是,人工智能还可能显示出偏见,这些偏见是通过这些程序训练所用的海量数据引入的——而且许多用户无法察觉。现在,新的研究表明,人类用户可能会无意识地吸收这些自动化偏见。

过去的 исследования показали, что предвзятый ИИ может нанести вред людям, уже находящимся в маргинализированных группах. Некоторые воздействия незначительны, например, распознавание речи программное обеспечение не в состоянии понимать неамериканские акценты, что может доставить неудобства людям, использующим смартфоны или голосовые домашние помощники. Есть и более пугающие примеры, в том числе алгоритмы здравоохранения которые допускают ошибки, потому что они обучаются только на подмножестве людей (например, на белых людях, людях определенного возраста или даже людях с определенной стадией заболевания), а также расово предвзятые полицейское программное обеспечение для распознавания лиц, которое может увеличить число неправомерных арестов чернокожих.

然而,解决问题可能不像追溯调整算法那么简单。一旦人工智能模型问世,用其偏见影响人们,从某种意义上说,损害已经造成。这是因为与这些自动化系统互动的人可能会无意识地将他们遇到的偏见融入到他们未来的决策中,正如最近发表在《科学报告》上的心理学研究所表明的那样。至关重要的是,该研究表明,人工智能模型引入用户的偏见可以持续存在于人的行为中——即使在他们停止使用人工智能程序之后。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方式是 订阅。通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和想法的具有影响力的故事的未来。


“我们已经知道人工智能继承了人类的偏见,”这项新研究的资深研究员、西班牙德乌斯托大学的实验心理学家海伦娜·马图特说。例如,当科技出版物Rest of World最近分析了流行的AI图像生成器时,它发现这些程序倾向于种族和民族刻板印象。但马图特试图从另一个方向理解人工智能与人类的互动。“我们在实验室中提出的问题是人工智能如何影响人类的决策,”她说。

在三个实验过程中,每个实验都有约200名独特的参与者,马图特和她的合作研究员、德乌斯托大学的露西亚·维森特模拟了一个简化的医疗诊断任务:他们要求非专业参与者将图像分类为指示存在或不存在虚构疾病。这些图像由两种不同颜色的点组成,参与者被告知这些点阵列代表组织样本。根据任务参数,一种颜色的点越多意味着疾病呈阳性结果,而另一种颜色的点越多则意味着阴性结果。

在不同的实验和试验中,马图特和维森特向部分参与者提供了有目的性的偏见建议,如果遵循这些建议,将导致他们错误地对图像进行分类。科学家们在一封电子邮件中解释说,他们将这些建议描述为源自“基于人工智能 (AI) 算法的诊断辅助系统”。对照组收到一系列未标记的点图像进行评估。相比之下,实验组收到一系列标有来自虚假人工智能的“阳性”或“阴性”评估的点图像。在大多数情况下,标签是正确的,但在每种颜色的点数相似的情况下,研究人员引入了带有不正确答案的有意偏差。在一个实验组中,AI 标签倾向于提供假阴性。在第二个实验组中,偏差被反转为假阳性。

研究人员发现,接受虚假人工智能建议的参与者继续将相同的偏见纳入他们未来的决策中,即使在不再提供指导之后也是如此。例如,如果参与者与假阳性建议互动,当给予新的图像进行评估时,他们倾向于继续犯假阳性错误。尽管对照组证明在没有人工智能指导的情况下,这项任务很容易正确完成——并且尽管一项实验中 80% 的参与者注意到虚构的“人工智能”犯了错误,但这一观察结果仍然成立。

哈佛医学院皮肤病学教授、《npj Digital Medicine》主编约瑟夫·克维达尔说,一个重要的警告是,该研究没有涉及受过训练的医疗专业人员或评估任何批准的诊断软件。因此,克维达尔指出,该研究对医生和他们使用的实际人工智能工具的意义非常有限。美国放射学院数据科学研究所首席科学官基思·德雷尔也表示同意,并补充说“前提与医学影像不符”。

尽管不是真正的医学研究,但该研究为人们如何从无意中融入许多机器学习算法的偏见模式中学习提供了见解——并且表明人工智能可能会对人类行为产生不利影响。克维达尔说,忽略研究中虚假人工智能的诊断方面,“实验的设计从心理学的角度来看几乎是完美的”。德雷尔和克维达尔都没有参与这项研究,他们都认为这项工作很有趣,尽管并不令人惊讶。

范德堡大学心理学和人类发展学副教授丽莎·法齐奥说,人类可能会通过复制超出他们与机器学习模型交互范围之外的行为来继续执行人工智能的偏见,这一发现具有“真正的新颖性”,她没有参与最近的研究。她认为,即使是与有问题的 AI 模型或 AI 生成输出的限时交互也可能产生持久的影响。

例如,考虑一下加利福尼亚州圣克鲁斯市在 2020 年禁止的预测性警务软件。加州大学伯克利分校心理学助理教授塞莱斯特·基德说,尽管该市警察局不再使用算法工具来确定警力部署地点,但在使用了多年之后,部门官员可能已经内化了该软件可能存在的偏见,她也没有参与这项新研究。

人们从人类信息来源中学习偏见是广为人知的。然而,基德说,当不准确的内容或指导来自人工智能时,后果可能更加严重。她之前研究并撰写了关于人工智能如何改变人类信仰的独特方式。首先,基德指出,人工智能模型很容易变得比人类更加偏颇。她引用了彭博社最近发布的一项评估,该评估确定生成式人工智能可能比人类表现出更强的种族和性别偏见

人类也可能将更多的客观性归因于机器学习工具,而不是其他来源。“您受信息来源影响的程度与您评估其智能程度有关,”基德说。她解释说,人们可能会赋予人工智能更多的权威,部分原因是算法通常被宣传为利用了所有人类知识的总和。这项新研究似乎在次要发现中支持了这一观点:马图特和维森特指出,自我报告对自动化具有较高信任度的参与者倾向于犯更多模仿虚假人工智能偏见的错误。

此外,与人类不同,算法以看似“自信”的方式交付所有输出——无论是否正确,基德说。在直接的人类交流中,不确定性的细微线索对于我们如何理解和理解信息的背景非常重要。长时间的停顿、“嗯”、手势或眼神的转移可能表明一个人对自己所说的话不太确定。机器不提供此类指标。“这是一个巨大的问题,”基德说。她指出,一些人工智能开发人员正在尝试通过添加不确定性信号来追溯解决这个问题,但很难为真实事物设计替代品。

基德和马图特都声称,人工智能开发人员在如何训练和构建其工具方面缺乏透明度,这使得消除人工智能偏见变得更加困难。德雷尔对此表示赞同,并指出即使在获得批准的医疗人工智能工具中,透明度也是一个问题。尽管食品和药物管理局监管诊断机器学习程序,但没有统一的联邦数据披露要求。美国放射学院多年来一直倡导提高透明度,并表示仍需开展更多工作。“我们需要医生在高层次上了解这些工具的工作原理、它们的开发方式、训练数据的特征、它们的性能、它们应该如何使用、何时不应该使用以及工具的局限性,”放射学会网站上发布的 2021 年文章写道。

而且不仅仅是医生。马图特说,为了最大限度地减少人工智能偏见的影响,每个人“都需要更多地了解这些人工智能系统是如何运作的”。否则,我们就有可能让算法“黑匣子”将我们推进到一个自我挫败的循环中,在这个循环中,人工智能导致更多有偏见的人类,而人类反过来又创造出越来越有偏见的算法。“我非常担心,”马图特补充说,“我们正在开始一个循环,这将很难摆脱。”

© . All rights reserved.