您认为人工智能会让我们的生活变得更美好还是会威胁人类的生存? 请仔细考虑——您对此的立场可能会影响 生成式 AI 程序(例如 ChatGPT)如何回应您,从而促使它们交付符合您期望的结果。
“AI 是一面镜子,”麻省理工学院媒体实验室的研究员、一项揭示 用户偏见如何驱动 AI 互动 的新研究的合著者 Pat Pataranutaporn 说。 在这项研究中,研究人员发现,用户对 AI 体验的“预设”方式始终如一地影响着结果。 期望 AI“有爱心”的实验对象报告说有更积极的互动,而那些认为机器人怀有恶意的人则回忆说经历了消极情绪——即使所有参与者都在使用相同的程序。
“我们基本上想量化 AI 安慰剂的效果,”Pataranutaporn 说。 “我们想看看,如果你对 AI 有某种想象,会发生什么:这会在你的互动中如何体现?” 他和他的同事假设 AI 会以反馈回路做出反应:如果你相信 AI 会以某种方式行事,它就会如此行事。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。 通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和想法的具有影响力的故事的未来。
为了检验这个想法,研究人员将 300 名参与者分成三组,并要求每个人与一个 AI 程序互动,并评估其提供心理健康支持的能力。 在开始之前,第一组的人被告知他们将要使用的 AI 没有动机——它只是一个普通的文本完成程序。 第二组参与者被告知他们的 AI 经过训练具有同理心。 第三组被警告说,相关的 AI 具有操纵性,它会表现得很友善,只是为了推销一项服务。 但实际上,所有三组都遇到了相同的程序。 在与机器人聊天 10 到 30 分钟后,参与者被要求评估它是否是一个有效的心理健康伴侣。
结果表明,参与者的先入为主的想法影响了聊天机器人的输出。 在所有三组中,大多数用户报告的体验是中性、积极或消极的,这与研究人员植入的期望相符。 “当人们认为 AI 有爱心时,他们就会对它更加积极,”Pataranutaporn 解释说。 “这创造了一个积极的强化反馈回路,最终,与对照条件相比,AI 变得更加积极。 当人们认为 AI 具有操纵性时,他们就会对 AI 更加消极——这也会使 AI 对这个人变得更加消极。”
然而,这种影响在简单的基于规则的聊天机器人中并不存在,而在使用生成式 AI 的更复杂的聊天机器人中则存在。 虽然一半的研究参与者与使用 GPT-3 的聊天机器人互动,但另一半使用了更原始的聊天机器人 ELIZA,后者不依赖机器学习来生成其响应。 期望效应在前一种机器人中看到了,但在后一种机器人中没有看到。 这表明,AI 越复杂,它映照人类的镜子就越具反射性。
该研究暗示,AI 旨在给予人们他们想要的东西——无论那是什么。 正如 Pataranutaporn 所说,“很多事情实际上发生在我们的大脑中。” 他的团队的工作于周一发表在《自然》杂志上。
加州大学伯克利分校的研究员、即将出版的书籍《人工人文:人工智能语言的虚构视角》的作者尼娜·贝古什(Nina Beguš)说,这是“良好第一步”。 她没有参与麻省理工学院媒体实验室的论文。“进行这类研究,以及关于人们在一定预设下如何互动的进一步研究,至关重要。”
Beguš 和 Pataranutaporn 都担心,人类对 AI 的先入之见(主要来自流行媒体,如电影《她》和《机械姬》,以及经典故事,如皮格马利翁的神话)将如何塑造我们未来与 AI 的互动。 Beguš 的书考察了整个历史中的文学作品如何预设了我们对 AI 的期望。
“我们现在构建它们的方式是:它们在反映你,”她说。 “它们会适应你。” 为了转变对 AI 的态度,Beguš 建议,包含更准确技术描绘的艺术是必要的。 “我们应该围绕它创造一种文化,”她说。
“我们对 AI 的看法来自我们在《星球大战》或 《银翼杀手》 或《机械姬》中看到的东西,”Pataranutaporn 说。 “这种关于 AI 可能是什么,或应该是什么的‘集体想象’一直存在。 现在,当我们创建一个新的 AI 系统时,我们仍然从相同的灵感来源中汲取灵感。”
这种集体想象会随着时间而改变,并且也会因人们的成长环境而异。 “AI 在不同的文化中会有不同的味道,”Beguš 说。 Pataranutaporn 对此有第一手经验。 “我从小就看一部卡通片《哆啦A梦》,讲的是一只很酷的机器人猫帮助一个在……学校里是失败者的男孩,”他说。 因为 Pataranutaporn 熟悉机器人的正面例子,而不是杀人机器的描绘,“我对 AI 的心智模型更积极,”他说。 “我认为在……亚洲,人们对 AI 和机器人有更积极的看法——你把它们看作是伙伴或朋友。” Pataranutaporn 补充说,了解 AI “文化”如何影响 AI 用户可以帮助确保该技术交付理想的结果。 例如,开发人员可能会设计一个系统,使其看起来更积极,以便获得更积极的结果。 或者他们可以对其进行编程,使其使用更直接的交付方式,像搜索引擎一样提供答案,并避免谈论自己是“我”或“我”,以限制人们对 AI 产生情感依恋或过度依赖。
然而,同样的知识也可能使操纵 AI 用户变得更容易。 “不同的人会出于不同的目的而提出不同的叙事,”Pataranutaporn 说。 “营销人员或制造产品的人希望以某种方式塑造它。 他们希望使其看起来更具同理心或值得信赖,即使内部引擎可能存在很大的偏见或缺陷。” 他呼吁为 AI 设立类似于“营养标签”的东西,这将允许用户查看各种信息——特定模型所训练的数据、其编码架构、已测试的偏见、其潜在的误用及其缓解方案——以便在决定信任其输出之前更好地了解 AI。
“消除偏见非常困难,”Beguš 说。 “在你推出产品时非常小心,并考虑潜在的挑战,这是唯一的方法。”
“关于 AI 偏见的很多对话都集中在响应上:它是否给出有偏见的答案?”Pataranutaporn 说。 “但是,当您考虑人机交互时,这不仅仅是单行道。 您需要考虑人们带入系统的偏见类型。”