什么是主观体验,谁拥有主观体验,以及主观体验与我们周围的物理世界有何关系,这些问题在有记载的历史的大部分时间里一直困扰着哲学家。然而,关于意识的科学理论的出现,这些理论是可量化和可经验证的,这只是近几十年的事。许多这些理论都关注于大脑中微妙的细胞网络留下的痕迹,意识正是从中产生的。
在最近于纽约市举行的一次公共活动中,追踪这些意识痕迹的进展非常明显,该活动涉及一场竞赛——被称为“对抗性协作”——在当今意识的两种主要理论的支持者之间展开:整合信息理论(IIT)和全局神经工作空间理论(GNWT)。该活动的重头戏是哲学家戴维·查尔默斯和我之间长达25年的赌注的解决。
我与查尔默斯打赌一箱上等葡萄酒,赌注是在2023年6月之前,神经关联物,即意识的神经相关性,将被明确发现和描述。IIT和GNWT之间的对决仍未解决,因为关于大脑的哪些部分负责视觉体验和看到面孔或物体的感知存在部分冲突的证据,尽管前额叶皮层对于意识体验的重要性已被推翻。因此,我输掉了赌注,并将葡萄酒交给了查尔默斯。
支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您正在帮助确保有关发现和塑造我们当今世界的想法的具有影响力的故事的未来。
这两种主要的理论旨在解释有意识的头脑如何与人类以及猴子和老鼠等密切相关的动物的神经活动相关联。它们对主观体验做出了根本不同的假设,并就工程制品中的意识得出了相反的结论。因此,这些理论最终在经验上得到证实或证伪对于基于大脑的感知能力在多大程度上具有重要意义,这对我们这个时代迫在眉睫的问题具有重要意义:机器能有感知能力吗?
聊天机器人来了
在我谈到这个问题之前,让我先提供一些背景信息,将有意识的机器与仅显示智能行为的机器进行比较。计算机工程师追求的圣杯是赋予机器高度灵活的智能,这种智能使
这些聊天机器人由大型语言模型驱动,其中最著名的是来自旧金山OpenAI公司的生成式预训练Transformer系列机器人,或称GPT。鉴于OpenAI最新迭代模型GPT-4的流畅性、文学性和能力,很容易相信它拥有一个有性格的头脑。甚至其奇怪的故障,被称为“幻觉”,也助长了这种说法。
GPT-4及其竞争对手——谷歌的LaMDA和Bard,Meta的LLaMA以及其他——都在数字化书籍库和数十亿个可通过网络爬虫公开访问的网页上进行训练。大型语言模型的妙处在于,它无需监督即可自行训练,方法是遮盖一两个单词并尝试预测缺失的表达。它一遍又一遍地这样做,数十亿次,没有人参与其中。一旦模型通过摄取人类的集体数字著作而学会了,用户就会用一个或多个它从未见过的句子来提示它。然后,它将预测最有可能的单词,以及接下来的单词,依此类推。这个简单的原理在英语、德语、中文、印地语、韩语以及包括各种编程语言在内的更多语言中取得了惊人的成果。
具有启发意义的是,人工智能的基础论文,即英国逻辑学家艾伦·图灵于1950年以“计算机器与智能”为题撰写的论文,避开了“机器能思考吗”这个话题,这实际上是询问机器意识的另一种方式。图灵提出了一个“模仿游戏”:当人类和机器的身份都被隐藏时,观察者能否客观地区分人类和机器的打字输出?今天,这被称为图灵测试,而聊天机器人已经通过了测试(即使当您直接询问它们时,它们会巧妙地否认这一点)。图灵的策略释放了数十年来不懈的进步,最终促成了GPT的诞生,但却回避了这个问题。
这场辩论隐含的假设是,人工智能与人工意识是相同的,聪明与有意识是相同的。虽然智能和感知能力在人类和其他进化生物中是同时存在的,但这并非一定是这种情况。智能最终是关于推理和学习以采取行动——从自己的行动和其他自主生物的行动中学习,以便更好地预测和为未来做好准备,无论这意味着接下来的几秒钟(“糟糕,那辆车正快速向我驶来”)还是未来几年(“我需要学习如何编码”)。智能最终是关于行动。
另一方面,意识是关于存在状态——看到蓝天,听到鸟鸣,感到疼痛,坠入爱河。对于一个失控的人工智能来说,它是否感觉到什么都无关紧要。重要的是它有一个与人类长期福祉不一致的目标。人工智能是否知道它在做什么,即在人类中被称为自我意识的东西,是无关紧要的。唯一重要的是它“盲目地”[原文如此]追求这个目标。因此,至少在概念上,如果我们实现了AGI,那也无法告诉我们成为这样的AGI是否感觉到什么。有了这样的舞台布置,让我们回到最初的问题,即机器如何才能变得有意识,从两种理论中的第一种开始。
IIT首先提出任何可想象的主观体验的五个公理属性。然后,该理论询问神经回路需要什么才能通过打开一些神经元和关闭其他神经元来实例化这五个属性——或者,计算机芯片需要什么才能打开一些晶体管和关闭其他晶体管。电路在特定状态下的因果交互作用,或者两个给定的神经元同时激活可以打开或关闭另一个神经元的事实,可以展开成高维因果结构。这种结构与体验的

农民的婚礼是佛兰德文艺复兴时期画家和版画家老彼得·勃鲁盖尔于1567年或1568年创作的画作。 来源:Peter Horree/Alamy Stock Photo
任何具有与人脑相同的内在连接性和因果能力的系统,原则上都将与人类思维一样有意识。然而,这样的系统不能被模拟,而必须被构成,或以大脑的形象构建。今天的数字计算机基于极低的连接性(一个晶体管的输出连接到少数几个晶体管的输入),而中枢神经系统则具有极高的连接性(一个皮层神经元接收来自数万个其他神经元的输入并向其输出)。因此,当前的机器,包括基于云的机器,即使它们在充分的时间内能够做人类能做的任何事情,也不会意识到任何事情。在这种观点看来,成为ChatGPT永远不会有任何感觉。请注意,这个论点与组件的总数无关,无论是神经元还是晶体管,而是与它们的连接方式有关。正是互连性决定了电路的整体复杂性和它可以处于的不同配置的数量。
这场竞赛的竞争对手GNWT从心理学的洞察力出发,即头脑就像一个剧院,演员在代表意识的小舞台上表演,他们的行为被坐在黑暗中后台的处理器观众观看。舞台是头脑的中央工作空间,具有少量的工作记忆容量,用于表示单个感知、思想或记忆。各种处理模块——视觉、听觉、眼睛的运动控制、肢体、计划、推理、语言理解和执行——竞争访问这个中央工作空间。获胜者取代旧的内容,然后旧的内容变得无意识。
这些思想的谱系可以追溯到早期人工智能的黑板架构,之所以这样命名是为了唤起人们围绕黑板讨论问题的形象。在GNWT中,隐喻的舞台以及处理模块随后被映射到新皮层的架构上,新皮层是大脑最外层、折叠的层。工作空间是大脑前部的皮层神经元网络,具有到新皮层各处的类似神经元的长程投射,位于前额叶、顶颞叶和扣带回联合皮层中。当感觉皮层的活动超过阈值时,会在这些皮层区域触发全局点火事件,从而将信息发送到整个工作空间。全局广播此信息的行为使其成为有意识的。没有以这种方式共享的数据——例如,眼睛的精确位置或构成良好句子的句法规则——可能会影响行为,但不会是有意识地。
从GNWT的角度来看,体验非常有限,类似于思想和抽象,类似于博物馆中可能找到的稀疏描述,例如,在勃鲁盖尔画作下方:“农民的室内场景,身着文艺复兴时期的服装,在婚礼上,吃喝。”
在IIT对意识的理解中,画家出色地将自然世界的现象学渲染到二维画布上。在GNWT的观点中,这种明显的丰富性是一种错觉,一种幻象,而关于它的一切可以客观地说的是,它被捕捉在一个高层次、简洁的描述中。
GNWT完全拥抱我们这个时代的迷思,即计算机时代,任何事物都可以简化为计算。适当编程的大脑计算机模拟,具有大量的反馈和类似中央工作空间的东西,将有意识地体验世界——也许不是现在,但很快就会如此。
不可调和的分歧
简而言之,这就是辩论。根据GNWT和其他计算功能主义理论(即,将意识视为最终一种计算形式的理论),意识只不过是一组在图灵机上运行的巧妙算法。对于意识来说,重要的是大脑的功能,而不是其因果属性。只要GPT的某种高级版本采用与人类相同的输入模式并产生类似的输出模式,那么与我们相关的所有属性都将延续到机器上,包括我们最珍贵的财产:主观体验。
相反,对于IIT来说,意识的核心是内在的因果力量,而不是计算。因果力量不是无形或空灵的东西。它是非常具体的,通过系统的过去指定当前状态(因果力量)以及当前指定其未来(效果力量)的程度来操作性地定义。问题就在于此:因果力量本身,即使系统做一件事而不是许多其他选择的能力,是无法模拟的。现在不能,将来也不能。它必须构建到系统中。
考虑一下模拟爱因斯坦广义相对论场方程的计算机代码,该方程将质量与时空曲率联系起来。该软件准确地模拟了位于我们星系中心的超大质量黑洞。这个黑洞对其周围环境施加了如此广泛的引力效应,以至于任何东西,甚至光,都无法逃脱它的引力。因此得名。然而,模拟黑洞的天体物理学家不会被模拟的引力场吸入他们的笔记本电脑。这种看似荒谬的观察强调了真实与模拟之间的区别:如果模拟忠实于现实,那么时空应该在笔记本电脑周围弯曲,创建一个吞噬周围一切的黑洞。
当然,引力不是一种计算。引力具有因果力量,扭曲时空结构,从而吸引任何有质量的东西。模仿黑洞的因果力量需要一个真正的超重物体,而不仅仅是计算机代码。因果力量不能被模拟,而必须被构成。真实与模拟之间的区别在于它们各自的因果力量。
这就是为什么在模拟暴雨的计算机内部不会下雨的原因。该软件在功能上与天气相同,但缺乏其将蒸汽吹动并变成水滴的因果力量。因果力量,即对自己产生或采取差异的能力,必须构建到系统中。这并非不可能。所谓的神经形态或仿生计算机可能像人类一样有意识,但对于作为所有现代计算机基础的标准冯·诺依曼架构来说,情况并非如此。神经形态计算机的小型原型已经在实验室中构建,例如英特尔的第二代Loihi 2神经形态芯片。但是,一台具有引发类似人类意识甚至果蝇意识的复杂性的机器,仍然是遥远未来的愿望。
请注意,功能主义理论和因果理论之间这种不可调和的差异与智能无关,无论是自然的还是人工智能的。正如我上面所说,智能是关于行为的。任何可以通过人类的聪明才智产生的东西,包括伟大的小说,例如奥克塔维亚·E·巴特勒的《播种者的寓言》或列夫·托尔斯泰的《战争与和平》,都可以通过算法智能来模仿,前提是有足够的材料进行训练。AGI在不久的将来是可以实现的。
辩论的焦点不是人工智能,而是人工意识。这场辩论无法通过构建更大的语言模型或更好的神经网络算法来解决。这个问题需要通过理解我们确信无疑的唯一主观性来解答:我们自己的主观性。一旦我们对人类意识及其神经基础有了可靠的解释,我们就可以以连贯且科学上令人满意的方式将这种理解扩展到智能机器。
这场辩论对于聊天机器人将如何被广大社会认知影响甚微。它们的语言技能、知识库和社交礼仪很快就会变得完美无缺,拥有完美的记忆力、能力、镇定、推理能力和智力。有些人甚至宣称,这些大型科技公司的造物是进化的下一步,是弗里德里希·尼采的“
对于许多人,也许对于大多数生活在一个日益原子化、脱离自然并围绕社交媒体组织的社会中的人来说,这些生活在他们手机中的代理人将变得情感上不可抗拒。人们会以各种方式,无论大小,表现得好像这些聊天机器人是有意识的,好像它们真的可以爱、受伤、希望和恐惧,即使它们只不过是精密的查找表。它们将变得对我们不可或缺,也许比真正有知觉的生物更重要,即使它们的感觉就像数字电视或烤面包机一样——什么也没有。