长期以来,科幻小说一直在娱乐人工智能变得有意识的想法——想想 1968 年电影《2001太空漫游》中的 HAL 9000,这个从超级计算机变成反派的角色。随着人工智能 (AI) 的飞速发展,这种可能性变得越来越不荒谬,甚至得到了人工智能领域领导者的认可。例如,去年,ChatGPT 背后的公司 OpenAI 的首席科学家 Ilya Sutskever 在推特上表示,一些最前沿的 AI 网络可能“略微有意识”。
许多研究人员表示,人工智能系统尚未达到有意识的程度,但人工智能发展的步伐让他们开始思考:如果它们有意识,我们该如何知道?
为了回答这个问题,由 19 位神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如果满足这些标准,则表明系统很有可能是有意识的。他们在本周早些时候在 arXiv 预印本存储库1中发布了他们的临时指南,在同行评审之前。合著者、位于加利福尼亚州旧金山的非营利研究组织 AI 安全中心的哲学家罗伯特·朗表示,作者们之所以努力,是因为“似乎缺乏对 AI 意识进行详细、经验性、深思熟虑的讨论”。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的有影响力的故事的未来。
该团队表示,未能识别人工智能系统是否变得有意识具有重要的道德意义。加州大学尔湾分校的神经科学家、合著者梅根·彼得斯表示,如果某事物被标记为“有意识”,那么“这会极大地改变我们人类认为应该如何对待该实体的方式”。
朗补充说,据他所知,构建先进人工智能系统的公司并没有做出足够的努力来评估模型的意识,并为发生这种情况时该怎么做制定计划。“尽管事实上,如果你听取主要实验室负责人的言论,他们确实表示他们想知道人工智能意识或人工智能知觉,”他补充道。
自然联系了参与推进人工智能的两家主要科技公司——微软和谷歌。微软的一位发言人表示,该公司的人工智能开发以负责任的方式协助人类提高生产力为中心,而不是复制人类智能。自 GPT-4(ChatGPT 最先进的公开版本)推出以来,很明显“需要新的方法来评估这些人工智能模型的能力,因为我们探索如何充分发挥人工智能的潜力,造福整个社会”,该发言人表示。谷歌没有回应。
什么是意识?
研究人工智能意识的挑战之一是定义有意识意味着什么。彼得斯说,为了报告的目的,研究人员专注于“现象意识”,也称为主观体验。这是存在的体验——成为一个人、动物或人工智能系统(如果其中一个确实变得有意识)是什么感觉。
有许多基于神经科学的理论描述了意识的生物学基础。但是,对于哪个是“正确”的理论,尚未达成共识。为了创建他们的框架,作者因此使用了许多这些理论。其想法是,如果人工智能系统以符合许多这些理论的各个方面的方式运作,那么它有意识的可能性就更大。
他们认为,与仅仅让系统通过行为测试(例如,询问 ChatGPT 它是否有意识,或者挑战它并观察它的反应)相比,这是一种更好的评估意识的方法。这是因为人工智能系统在模仿人类方面已经变得非常出色。
苏塞克斯大学布莱顿附近意识科学中心主任、神经科学家 Anil Seth 认为,该小组的方法(作者称之为理论密集型方法)是一个很好的方向。然而,它突出了“我们需要更精确、经过良好测试的意识理论”,他说。
理论密集型方法
为了制定他们的标准,作者假设意识与系统如何处理信息有关,而与它们的构成无关——无论是神经元、计算机芯片还是其他东西。这种方法称为计算功能主义。他们还假设,通过对人类和动物进行脑部扫描和其他技术研究的基于神经科学的意识理论可以应用于人工智能。
基于这些假设,该团队选择了六种理论,并从中提取了一份意识指标清单。其中之一——全局工作空间理论——例如,断言人类和其他动物使用许多专门的系统(也称为模块)来执行认知任务,例如看和听。这些模块独立但并行地工作,并通过集成到一个系统中来共享信息。朗说,一个人会通过评估特定人工智能系统是否显示出从该理论得出的指标,“通过查看系统的架构以及信息如何在其中流动”来进行评估。
塞思对该团队提案的透明度印象深刻。“它非常周到,不浮夸,并且使其假设非常明确,”他说。“我不同意其中一些假设,但这完全没问题,因为我很可能错了。”
作者表示,该论文远非关于如何评估人工智能系统意识的最终定论,他们希望其他研究人员帮助改进他们的方法。但是,将这些标准应用于现有的人工智能系统已经成为可能。该报告评估了大型语言模型(如 ChatGPT),并发现这种类型的系统可以说具有与全局工作空间理论相关的一些意识指标。然而,最终,这项工作并未表明任何现有的人工智能系统是意识的有力候选者——至少目前还没有。
本文经许可转载,并于 2023 年 8 月 24 日首次发表。