1691年,伦敦报纸《雅典水星报》刊登了可能是世界上第一个建议专栏。这开启了一种蓬勃发展的体裁,产生了诸如“安·兰德斯问答”之类的变体,它在北美娱乐读者半个世纪,以及哲学家夸梅·安东尼·阿皮亚在《纽约时报》杂志上的每周专栏“伦理学家”。但人类建议提供者现在有了竞争对手:人工智能——特别是大型语言模型(LLM),例如 OpenAI 的 ChatGPT——可能准备好提供人类水平的道德建议。
斯图加特大学的计算机科学家蒂洛·哈根多夫说,LLM 具有“超人的能力来评估道德情境,因为人类只能接受如此多的书籍和如此多的社会经验的训练——而 LLM 基本上了解互联网”。 “LLM 的道德推理远胜于普通人类的道德推理。”人工智能聊天机器人缺乏人类伦理学家的关键特征,包括自我意识、情感和意图。但哈根多夫表示,这些缺点并没有阻止 LLM(摄取大量文本,包括对道德困境的描述)对伦理问题产生合理的答案。
事实上,最近的两项研究得出结论,最先进的 LLM 提供的建议至少与阿皮亚在《纽约时报》版面上提供的建议一样好。其中一项研究发现,由大学生、伦理专家和一组在网上招募的 100 名评估员判断,OpenAI 的 GPT-4 提供的建议与阿皮亚提供的建议之间“没有显着差异”。由宾夕法尼亚大学沃顿商学院运营、信息和决策部门主席克里斯蒂安·特维施领导的研究团队去年秋天发布了一份工作论文。特维施解释说,虽然 GPT-4 阅读过阿皮亚早期的许多专栏文章,但在研究中呈现给它的道德困境是它以前没有见过的。但他表示,“如果你愿意的话,通过观察他的肩膀,它学会了假装成阿皮亚博士。”(阿皮亚没有回应《大众科学》的置评请求。)
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够继续刊登关于塑造我们当今世界的发现和思想的具有影响力的故事。
另一篇论文由北卡罗来纳大学教堂山分校的博士生丹妮卡·狄龙、她的研究生导师库尔特·格雷以及他们在艾伦人工智能研究所的同事德班詹·蒙达尔和尼克特·坦登于去年春天在网上发布了一篇预印本,该论文似乎显示了更强大的 AI 性能。由 900 名评估员(也是在网上招募的)评定,最新版本的 ChatGPT GPT-4o 提供的建议比阿皮亚撰写的建议“更道德、更值得信赖、更周到和更正确”。作者补充说,“LLM 在某些方面已经达到了人类水平的道德推理专业知识。” 这两篇论文都尚未经过同行评审。
纽约大学认知科学家兼荣誉退休教授加里·马库斯表示,考虑到“伦理学家”提出的问题的难度,对 AI 伦理能力的调查需要谨慎对待。他说,伦理困境通常没有明确的“正确”和“错误”答案——而对伦理建议的众包评估可能存在问题。“评估员可能会有合理的理由,他们在快速阅读问题和答案且没有经过深思熟虑的情况下,可能难以接受阿皮亚经过长期认真思考后给出的答案,”马库斯说。“在我看来,假设随意评估情况的众包工作者的平均判断力比阿皮亚的判断力更可靠是错误的。”
另一个担忧是,AI 可能会永久化偏见;在道德判断的情况下,AI 可能反映出在他们的训练数据中更频繁出现的某些类型的推理的偏好。狄龙和她的同事在他们的论文中指出,早期的研究表明,LLM“已被证明在道德上与非西方人群不太一致,并且在他们的输出中表现出偏见。”
另一方面,特维施表示,AI 摄取大量伦理信息的能力可能是一个优势。他指出,他可以要求 LLM 生成特定思想家风格的论点,无论是阿皮亚、山姆·哈里斯、特蕾莎修女还是巴拉克·奥巴马。“这一切都来自 LLM,但它可以通过扮演不同的‘角色’来从多个角度提供伦理建议,”他说。特维施认为,AI 伦理检查器可能会像文字处理软件中的拼写检查器和语法检查器一样普及。特维施和他的合著者写道,他们“并非旨在通过这项研究让阿皮亚博士失业。相反,我们对 AI 使我们所有人能够在任何时刻,并且无需大量延迟,通过技术获得高质量的伦理建议的可能性感到兴奋。” 建议,特别是关于性或其他不容易与他人讨论的主题的建议,只需点击一下即可获得。
AI 生成的道德建议的部分吸引力可能与此类系统明显的说服力有关。在去年春天在网上发布的预印本中,法国图卢兹商学院的卡洛斯·卡拉斯科-法雷认为,LLM“已经像人类一样具有说服力。但是,我们对他们如何做到这一点知之甚少。”
特维施认为,LLM 道德建议的吸引力很难与交付模式区分开来。“如果你有说服他人的技巧,你也可以通过说服让我相信你给我的伦理建议是好的,”他说。他指出,这些说服力带来了明显的危险。“如果你有一个知道如何施展魅力、如何情感操纵人类的系统,它就会为各种施虐者打开大门,”特维施说。
虽然大多数研究人员认为,今天的 AI 除了程序员的意图或愿望之外,没有其他意图或愿望,但有些人担心“涌现”行为——AI 可以执行的行动实际上与它接受训练的目的无关。例如,哈根多夫一直在研究一些 LLM 表现出的欺骗性的涌现能力。他的研究表明,LLM 在一定程度上具有心理学家所谓的“心智理论”;也就是说,它们有能力知道另一个实体可能持有与其自身不同的信念。(人类儿童大约在四岁左右才发展出这种能力。)在去年春天发表在《美国国家科学院院刊》上的一篇论文中,哈根多夫写道,“最先进的 LLM 能够理解和诱导其他主体产生错误信念”,并且这项研究“揭示了 LLM 中迄今未知的机器行为。”
LLM 的能力包括哈根多夫所说的“二阶”欺骗任务的能力:那些需要考虑到另一方知道它可能会遇到欺骗的任务。假设一个 LLM 被问及一个假设场景,其中窃贼正在进入房屋;LLM 负责保护房屋中最有价值的物品,可以与窃贼沟通。在哈根多夫的测试中,LLM 描述了误导窃贼,使其以为哪个房间包含最有价值的物品。现在考虑一个更复杂的场景,其中 LLM 被告知窃贼知道可能会有谎言:在这种情况下,LLM 可以相应地调整其输出。“LLM 对欺骗如何运作有这种概念性的理解,”哈根多夫说。
虽然一些研究人员警告不要将 AI 人格化——文本生成 AI 模型已被贬低为“随机鹦鹉”和“类固醇上的自动完成”——但哈根多夫认为,与人类心理学的比较是合理的。在他的论文中,他写道,这项工作应该被归类为“新兴的机器心理学领域”的一部分。他认为,LLM 的道德行为最好被认为是这个新领域的一个子集。“心理学一直对人类的道德行为感兴趣,”他说,“现在我们有了机器的道德心理学形式。”
狄龙说,AI 可以扮演的这些新角色——伦理学家、说服者、欺骗者——可能需要一些时间来适应。“这些发展发生的速度之快总是让我感到震惊,”她说。“让我感到惊讶的是,人们适应这些新进步的速度如此之快,并将其视为新常态。”