本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定反映《大众科学》的观点
在你醒着的每一刻,以及每当你做梦时,你都有自己是“你”的清晰内在感觉。当你看到日出的温暖色调,闻到早晨咖啡的香气,或仔细思考一个新想法时,你正在进行有意识的体验。但是,人工智能(AI)有可能像《西部世界》中描绘的一些机器人或《银翼杀手》中的合成生物一样,拥有体验吗?
这个问题并非牵强附会。目前正在开发机器人,以便在核反应堆内部工作、参与战争和照顾老人。随着人工智能变得越来越复杂,预计在未来几十年内,它们将接管许多人类工作。因此,我们必须思考这个问题:人工智能会发展出有意识的体验吗?
这个问题之所以紧迫,有几个原因。首先,伦理学家担心,如果人工智能能够遭受痛苦并感受到一系列情绪,那么强迫人工智能为我们服务将是不对的。其次,意识可能会使人工智能变得不稳定或不可预测,从而引发安全担忧(或者相反,它可能会增加人工智能的同理心;基于自身的主观体验,它可能会认识到我们身上的意识,并富有同情心地对待我们)。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们当今世界的发现和思想的有影响力的故事。
第三,机器意识可能会影响脑植入技术的可行性,例如埃隆·马斯克的新公司 Neuralink 即将开发的技术。如果人工智能不能有意识,那么负责意识的大脑部分就不能用芯片替换而不会导致意识丧失。而且,类似地,一个人无法将他们的大脑上传到计算机以避免死亡,因为上传的内容不会是一个有意识的存在。
此外,如果人工智能最终在智力上超越我们,但缺乏意识,那么仍然会有一种重要的意义,即我们人类优于机器;成为我们感觉起来是某种东西。但地球上最聪明的生物将不会是有意识或有知觉的。
机器意识的问题至关重要。然而,神经科学家远未理解大脑中意识的基础,哲学家们也同样远未对意识的本质做出完整的解释。
那么可以做些什么呢?我们认为,我们不需要正式定义意识,理解其哲学本质或了解其神经基础,就能识别出人工智能中意识的迹象。我们每个人都可以通过内省来掌握关于意识的本质;我们都可以从内在体验到存在的感觉。
基于意识的这个本质特征,我们提出了一种机器意识测试,即人工智能意识测试(ACT),它着眼于我们创造的合成思维是否对从内在感受到意识的方式具有基于经验的理解。
尽管通常不被注意到,但正常运作的人类体验意识的最引人注目的迹象之一是,几乎每个成年人都可以快速且容易地掌握基于这种感受到的意识质量的概念。这些想法包括像身体互换心灵(如电影《怪诞星期五》中那样)的场景;死后的生活(包括轮回);以及心灵离开“他们”的身体(例如,星体投射或鬼魂)。无论这些场景是否具有任何现实意义,对于一个完全没有意识体验的实体来说,理解起来都将极其困难。这就像期望一个从出生就完全失聪的人欣赏巴赫协奏曲一样。
因此,ACT 将通过一系列日益苛刻的自然语言互动来挑战人工智能,以了解它快速且容易地掌握和使用基于我们与意识相关的内在体验的概念和场景的能力。在最基本的层面上,我们可能只是简单地询问机器是否认为自己除了物理自我之外还有其他东西。在更高级的层面上,我们可能会看看它是如何处理上一段中提到的想法和场景的。在高级层面上,将评估其推理和讨论诸如“意识的难题”等哲学问题的能力。在最苛刻的层面上,我们可能会看看机器是否在没有依赖人类的想法和输入的情况下,自行发明和使用这种基于意识的概念。
考虑以下例子,它说明了这个想法:假设我们发现一个星球,上面有一种高度复杂的硅基生命形式(称它们为“Zetas”)。科学家观察它们并思考它们是否是有意识的生物。什么会是这个物种意识的令人信服的证据?如果 Zetas 表达了对是否存在来世的好奇,或者思考它们是否不仅仅是它们的肉体,那么将它们判断为有意识的是合理的。如果 Zetas 进一步提出关于意识的哲学问题,那么情况将更加有力。还有一些非语言行为可以表明 Zeta 的意识,例如哀悼死者、宗教活动,甚至在与情绪挑战相关的环境中改变颜色,就像地球上的色素细胞所做的那样。这些行为可能表明,成为 Zeta 是一种感觉。
斯坦利·库布里克2001太空漫游中虚构的 HAL 9000 人工智能计算机的思维死亡提供了另一个说明性例子。在这种情况下,机器不是像大多数科幻小说中描绘的有意识机器那样的人形机器人;它既不像人类的外观,也不像人类的声音(人类确实提供了 HAL 的声音,但以一种怪异的平淡方式)。然而,当宇航员停用它时,它所说内容的内容——特别是,恳求饶恕它免于迫在眉睫的“死亡”——传达了一个强烈的印象,即它是一个有意识的生物,对正在发生的事情有主观体验。
这些指标可以用来识别地球上有意识的人工智能吗?这里出现了一个潜在的问题。即使是今天的机器人也可以被编程来做出关于意识的令人信服的陈述,而一个真正的超智能机器甚至可能使用关于神经生理学的信息来推断人类中意识的存在。如果复杂但无意识的人工智能出于某种原因旨在误导我们相信它们是有意识的,那么它们对人类意识的了解可以帮助它们做到这一点。
不过,我们可以绕过这个问题。人工智能安全中提出的一种技术涉及“将人工智能关在笼子里”——使其无法获取关于世界的信息或在划定的领域之外行动,即“盒子”。我们可以拒绝人工智能访问互联网,实际上禁止它获得任何关于世界的知识,特别是关于意识体验和神经科学的信息。
有些人怀疑超智能机器是否能够有效地被关在笼子里——它会找到巧妙的逃脱方法。然而,我们预计在未来十年内不会发展出超智能。此外,为了使 ACT 有效,人工智能不需要在盒子中停留太久,只需足够长的时间来执行测试即可。
ACT 也可能在不同类型人工智能的开发过程中的“意识工程”中发挥作用,帮助避免以不道德的方式使用有意识的机器,或在适当的时候创造合成意识。
ACT 类似于艾伦·图灵著名的智能测试,因为它完全基于行为——而且,像图灵测试一样,它可以以形式化的问答形式实施。(ACT 也可以基于人工智能的行为或一组人工智能的行为。)但是 ACT 也与图灵测试完全不同,图灵测试旨在绕过任何了解机器内部发生的事情的需要。相比之下,ACT 旨在恰恰相反;它试图揭示机器思维中微妙而难以捉摸的属性。事实上,机器可能因为无法冒充人类而未能通过图灵测试,但却可以通过 ACT,因为它表现出意识的行为指标。
这是我们 ACT 提案的潜在基础。然而,应该说,ACT 的适用性本质上是有限的。人工智能可能缺乏通过测试的语言或概念能力,就像非人类动物或婴儿一样,但仍然能够体验。因此,通过 ACT 是人工智能意识的充分而非必要证据——尽管这是我们目前能做的最好的。这是使机器意识能够进行客观调查的第一步。
那么,回到“盒子”中的超智能人工智能——我们观察并等待。它是否像笛卡尔那样开始思考存在于身体之外的思维?它是否像艾萨克·阿西莫夫的《机器人之梦》中那样做梦?它是否像《银翼杀手》中的瑞秋那样表达情感?它能否容易地理解根植于我们内在意识体验的人类概念,例如灵魂或阿特曼的概念?
人工智能时代将是一个灵魂探索的时代——既是我们的,也是它们的。