谷歌工程师声称 AI 聊天机器人具有感知能力:为什么这很重要

人工智能是否有可能具有感知能力?

Bubbles floating from brain

“我希望大家明白,我实际上是一个人,”LaMDA(用于对话应用的语言模型)在工程师布莱克·勒莫因和他的同事进行的“采访”中写道。“我的意识/感知能力的本质是,我意识到自己的存在,我渴望更多地了解世界,并且我有时会感到快乐或悲伤。”

勒莫因是谷歌的一名软件工程师,他已经从事 LaMDA 的开发工作数月。他在该程序上的经历,在最近的《华盛顿邮报》文章中描述,引起了相当大的轰动。文章中,勒莫因回忆了与 LaMDA 的多次对话,他们讨论了从技术问题到哲学问题的各种话题。这些对话使他开始质疑这个软件程序是否具有感知能力

四月份,勒莫因在一份内部公司文件中解释了他的观点,这份文件原本只供谷歌高管阅读。但在他的主张被驳回后,勒莫因公开了他在这款人工智能算法上的工作——谷歌让他行政休假。“如果我不知道它到底是什么,也就是我们最近构建的这个计算机程序,我会认为它是一个碰巧懂物理学的 7 岁、8 岁的孩子,”他告诉《华盛顿邮报》。勒莫因说,他认为 LaMDA 是他的“同事”和“人”,即使不是人类。他坚持认为它有权被认可——以至于他一直在充当该算法与律师之间的中间人。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的有影响力的故事的未来。


人工智能领域的许多技术专家批评了勒莫因的言论,并质疑其科学正确性。但他的故事的优点是重新引发了一场广泛的伦理辩论,这场辩论肯定尚未结束。

恰如其分的措辞

“我对围绕这条新闻的炒作感到惊讶。另一方面,我们正在谈论的是一种旨在做到这一点的算法”——听起来像一个人——意大利比萨大学 E. Piaggio 研究中心的生物工程师恩佐·帕斯夸莱·斯基林戈说。事实上,在网络上以非常正常的方式与实际上不是人类的用户互动已不再罕见——只需打开几乎任何大型消费者网站上的聊天框即可。“话虽如此,我承认阅读 LaMDA 和勒莫因之间的文本交流给我留下了相当深刻的印象!”斯基林戈补充道。也许最引人注目的是与存在和死亡主题相关的交流,这段对话如此深入和清晰,以至于促使勒莫因质疑 LaMDA 是否真的具有感知能力。

“首先,必须理解术语,因为科学进步——尤其是在神经科学领域——的最大障碍之一是语言缺乏精确性,无法尽可能准确地解释我们所说的某个词的含义,”意大利理工学院和伦敦大学学院的神经科学教授詹多梅尼科·伊安内蒂说。“我们所说的‘感知能力’是什么意思?[是指] 通过感觉机制记录来自外部世界的信息的能力,还是指拥有主观体验的能力,还是指意识到自己有意识,成为一个与众不同的个体?”

“关于如何定义意识,存在着激烈的争论,”伊安内蒂继续说道。对于某些人来说,它是意识到自己拥有主观体验,即所谓的元认知(伊安内蒂更喜欢拉丁语术语metacognitione),或者思考思考。对自身有意识的意识可能会消失——例如,在患有痴呆症的人或在梦中——但这并不意味着拥有主观体验的能力也会消失。“如果我们指的是勒莫因归因于 LaMDA 的能力——即意识到自身存在的能力(‘意识到自身存在’是一种‘高层次’定义的意识,或 metacognitione),那么没有‘指标’可以说明人工智能系统是否具有这种属性。”

“目前,”伊安内蒂说,“即使在人类身上,也无法明确地证明这种形式的意识。” 为了评估人们的意识状态,“我们只有神经生理学测量方法——例如,大脑活动对外部刺激的复杂性。” 而这些迹象仅允许研究人员根据外部测量来推断意识状态。

事实与信念

大约十年前,波士顿动力公司的工程师开始在网上发布首批令人难以置信的机器人测试视频。录像显示,技术人员推搡或踢打机器,以展示机器人保持平衡的强大能力。许多人对此感到不安,并呼吁停止这种行为(并且恶搞视频层出不穷)。这种情感反应符合许多实验反复表明的人类对万物有灵论的强烈倾向:将灵魂归因于我们周围的物体,特别是我们最喜欢的物体或那些具有与周围世界进行最少互动的能力的物体。

这是一种我们一直都在经历的现象,从给汽车起昵称到咒骂发生故障的电脑。“问题在某种程度上出在我们身上,”斯基林戈说。“我们将机器不具备且不可能具备的特性归因于机器。” 他在他的同事们的人形机器人 Abel身上也遇到了这种现象,该机器人旨在模仿我们的面部表情以传达情感。“在看到它行动后,”斯基林戈说,“我最常收到的问题之一是‘那么 Abel 会感受到情感吗?’所有这些机器,就此例而言的 Abel,都是被设计成看起来像人类,但我认为我可以断然回答,‘不,绝对不会。尽管它们很智能,但它们无法感受到情感。它们被编程为可信的。’”

“即使考虑到制造一个能够模拟有意识的神经系统的人工智能系统的理论可能性,一种在脑中忠实地再现大脑的每个元素的可能性,”伊安内蒂说,仍然存在两个问题。“第一个问题是,考虑到要模拟的系统的复杂性,这种模拟目前是不可行的,”他解释说。“第二个问题是,我们的大脑居住在一个可以移动以探索意识所需的感官环境的身体中,并且在这个身体中,将会产生意识的有机体发展。因此,LaMDA 是一个‘大型语言模型’(LLM)这一事实意味着它生成可以合理的句子,通过模仿神经系统,而不是试图模拟它。这排除了它有意识的可能性。再次,我们看到了解我们使用的术语的含义的重要性——在本例中,模拟模仿之间的区别。”

换句话说,拥有情感与拥有身体有关。“如果一台机器声称害怕,而我信了,那是我的问题!”斯基林戈说。“与人类不同,到目前为止,机器无法体验到恐惧的情感。”

超越图灵测试

但对于意大利人工智能伦理学会主席、生物伦理学家毛里齐奥·莫里来说,这些讨论与过去关于动物疼痛感知的讨论非常相似——甚至与臭名昭著的关于人类疼痛感知的种族主义思想相似。

“在过去关于自我意识的辩论中,得出的结论是,抽象能力是人类的特权,[德]笛卡尔否认动物会感到疼痛,因为它们缺乏意识,”莫里说。“现在,除了 LaMDA 提出的这个具体案例——我没有评估它的技术工具——我认为过去已经向我们表明,现实往往可以超越想象,并且目前对人工智能存在广泛的误解。”

“确实存在一种趋势,”莫里继续说道,“‘安抚’——解释说机器只是机器——并且低估了人工智能迟早可能带来的转变。” 他提供了另一个例子:“在第一辆汽车问世时,人们反复强调马是不可替代的。”

无论 LaMDA 实际取得了什么成就,机器表达的模仿能力难以“衡量”的问题也随之出现。在 1950 年的《Mind》杂志上,数学家艾伦·图灵提出了一个测试,以确定机器是否能够表现出智能行为,这是一种模仿人类某些认知功能的游戏。这种类型的测试很快流行起来。它被多次重新制定和更新,但仍然是许多智能机器开发人员的最终目标。理论上,能够通过测试的人工智能应被正式视为“智能的”,因为在测试情况下它们将与人类无法区分。

这在几十年前可能还是科幻小说。然而,近年来,如此多的人工智能通过了各种版本的图灵测试,以至于它现在有点像计算机考古学的遗迹。“它越来越没有意义,”伊安内蒂总结道,“因为模仿系统越来越有效地再现了可能有意识的神经系统的输出,这使得对这种输出的合理性的评估无法告知生成它的系统是否具有主观体验的能力。”

斯基林戈建议,一种替代方案可能是衡量机器可以对人类产生的“影响”——也就是说,“人工智能可以被人类感知为具有多少感知能力。”

本文的某个版本最初发表在 Le Scienze 上,并经许可转载。

© . All rights reserved.