电动的想法?

最新的计算机设计从人类神经网络中汲取灵感。但是机器真的会思考吗?

您需要多长时间才能将 3,456,732 和 2,245,678 相加?十秒钟?对于人类来说还不错。普通的新 PC 可以在 0.000000018 秒内完成计算。您的记忆力如何?您能记住 10 个商品的购物清单吗?也许 20 个?与 PC 的 1.25 亿个商品相比如何。

另一方面,计算机却被人脸难住了,而人们却能立即认出人脸。机器缺乏产生新颖想法的创造力,也没有感情,也没有对青春的美好回忆。但是,最近的技术进步正在缩小人脑和电路之间的差距。在斯坦福大学,生物工程师正在微芯片上复制神经网络复杂的并行处理。另一项发展——一个名为达尔文七号的机器人——配备了摄像头和一套金属颚,使其能够像幼年动物一样与其环境互动和学习。加利福尼亚州拉霍亚的神经科学研究所的研究人员以大鼠和猿类的大脑为模型,构建了达尔文的大脑。

这些发展引出了一个自然而然的问题:如果计算机处理最终模仿自然的神经网络,那么冰冷的硅芯片真的能够思考吗?我们将如何判断它是否真的在思考?50 多年前,英国数学家兼哲学家艾伦·图灵发明了一种巧妙的策略来解决这个问题,而对这种策略的追求教会了科学界许多关于设计人工智能的知识,人工智能现在被称为 AI。与此同时,它也揭示了人类认知的一些方面。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将有助于确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


开端:测试智能
那么,我们称之为“思考”的这种难以捉摸的能力到底是什么呢?人们经常用这个词来描述涉及意识、理解和创造力的过程。相比之下,当前的计算机仅仅遵循其编程提供的指令。

1950 年,在硅微芯片尚未出现的时代,图灵意识到,随着计算机变得越来越智能,关于人工智能的这个问题最终会浮出水面。[有关图灵的生活和工作的更多信息,请参见对页的方框。] 在可以说是史上最著名的哲学论文《计算机器与智能》中,图灵简单地将问题“机器会思考吗?”替换为“机器——计算机——能通过模仿游戏吗?”也就是说,计算机的对话能否自然到足以让人误以为它是人类?

图灵的想法来自一个简单的客厅游戏,在这个游戏中,一个人,被称为审问者,必须通过提出一系列问题来确定另一个房间里一个看不见的人是男人还是女人。在他的思想实验中,他用计算机代替了另一个房间里的人。为了通过现在被称为图灵测试的测试,计算机必须以人类的语言能力和复杂程度回答审问者的任何问题。

图灵在他的开创性论文的结尾预测,在 50 年后——也就是现在——我们将能够制造出非常擅长玩模仿游戏的计算机,以至于普通的审问者只有 70% 的机会正确识别出他或她是在与人还是机器交谈。

到目前为止,图灵的预测尚未实现[参见第 80 页的方框]。没有计算机能够真正通过图灵测试。对于人类来说如此容易的事情,为什么会对机器构成如此大的障碍?为了通过测试,计算机必须展示的不仅仅是一种能力(例如,数学或钓鱼知识),而是多种能力——与普通人拥有的能力一样多。然而,计算机具有所谓的受限设计。它们的编程使它们能够完成特定的工作,并且它们拥有与该任务相关的知识库。一个很好的例子是宜家的在线助手安娜。您可以向安娜询问宜家的产品和服务,但她无法告诉您天气情况。

计算机还需要什么才能通过图灵测试?显然,它必须具有出色的语言运用能力,包括所有语言的怪癖和古怪之处。对这些怪癖敏感的关键是要考虑到说话的语境。但是计算机无法轻易识别语境。“银行”一词,例如,可能意味着“河岸”或“金融机构”,具体取决于使用它的语境。

语境如此重要的原因是它提供了背景知识。例如,这种知识的一个相关部分是提问者是谁:是成人还是儿童,是专家还是外行?对于诸如“洋基队赢得了世界大赛吗?”之类的问题,提问的年份很重要。

事实上,背景知识在各种方面都很有用,因为它减少了所需的计算能力。逻辑不足以正确回答诸如“当苏在她的房子里时,苏的鼻子在哪里?”之类的问题。还需要知道鼻子通常附在它们的主人身上。对于这样的查询,简单地告诉计算机回答“在房子里”是不够的。计算机可能会用“在房子里”来回答问题“当苏在她的房子里时,苏的书包在哪里?”,而合适的回答应该是“我不知道”。试想一下,如果苏最近做了隆鼻手术,事情会变得多么复杂。这里的正确答案应该是另一个问题:“您说的是苏的鼻子的哪一部分?”尝试编写软件来考虑每一种可能性很快就会导致计算机科学家所说的组合爆炸。

人类还是仅仅像人类?
然而,图灵测试并非没有批评者。纽约大学哲学家内德·布洛克认为,图灵的模仿游戏仅仅测试了计算机的行为是否与人类的行为相同(我们只谈论语言和认知行为,当然)。想象一下,我们可以用某种有限长度的所有可能的对话来编程计算机。当审问者提出问题 Q 时,计算机会在其中出现 Q 的对话中查找,然后键入随后出现的答案 A。当审问者提出他的下一个问题 P 时,计算机现在会查找字符串 Q、A、P,并键入在此对话中随后出现的答案 B。布洛克说,这样一台计算机将拥有烤面包机的智能,但它将通过图灵测试。对布洛克挑战的一个回应是,他为计算机提出的问题也适用于人类。撇开身体特征不谈,我们拥有的关于人类是否会思考的所有证据都是思想产生的行为。这意味着我们永远无法真正知道我们的对话伙伴——我们的对话者——是否正在以该词的通常意义进行对话。哲学家称之为“他心问题”。

中文,有人吗?
加州大学伯克利分校的哲学家约翰·塞尔发展出了一条类似的讨论路线——中文房间论证——以表明计算机可以通过图灵测试,而无需理解它使用的任何单词的含义。为了说明这一点,塞尔让我们想象一下,计算机程序员编写了一个程序来模拟对中文的理解。

想象一下,您是计算机中的一个处理器。您被锁在一个装满装有中文字符(将出现在计算机屏幕上的字符)的篮子的房间(计算机外壳)中。您不懂中文,但您得到一本大书(软件),告诉您如何操作这些符号。然而,书中的规则并没有告诉您这些符号的含义。当汉字被传递到房间(输入)时,您的工作是将符号传递出房间(输出)。对于此任务,您会收到另一组规则——这些规则对应于旨在通过图灵测试的模拟程序。您不知道的是,进入房间的符号是问题,而您推回的符号是答案。此外,这些答案完美地模仿了中文使用者可能给出的答案;因此,从房间外面看起来,就好像您懂中文一样。但当然,您不懂。这样一台计算机将通过图灵测试,但实际上,它不会思考。

计算机能否最终理解符号的含义?英格兰南安普顿大学的计算机科学家斯特凡·哈纳德认为它们可以,但与人一样,计算机必须首先了解抽象概念及其与真实外部世界的联系方式,才能掌握抽象概念及其语境。人们通过我们与符号所代表的对象之间的因果关系来学习单词的含义。我们理解“树”这个词,因为我们有过与树的经验。(想想又盲又聋的海伦·凯勒最终理解了被手语输入她手中的“水”字的含义的那一刻;顿悟发生在当她感觉到从泵中流出的水时。)

哈纳德认为,为了让计算机理解它所操作的符号的含义,它必须配备感觉装置——例如摄像头——以便它能够真正看到符号所代表的对象。像小达尔文七号这样的项目——配备了摄像头作为眼睛和金属下颌作为颚的机器人——朝着这个方向迈进了一步。

本着这种精神,哈纳德提出了一个修订后的图灵测试,他称之为机器人图灵测试。为了配得上“思考”的标签,机器必须通过图灵测试与外部世界相连。有趣的是,这种补充捕捉到了图灵自己观察到的一个现象:他在 1948 年的一份报告中写道,应该允许机器“在乡间漫游”,以便它能够“有机会自行发现事物”。

走向机器人
哈纳德认为至关重要的感觉设备可能会为计算机科学家提供一种方法,为计算机提供通过图灵测试所需的语境和背景知识。机器人不是要求通过蛮力输入所有相关数据,而是通过与其环境互动来学习它需要知道的东西。

我们能确定提供对外部世界的感官访问最终会赋予计算机真正的理解力吗?这就是塞尔想知道的。但在我们能够回答这个问题之前,我们可能必须等到机器真正通过哈纳德提出的机器人图灵测试。

与此同时,图灵测试提出的智能模型继续为人工智能提供重要的研究策略。达特茅斯学院哲学家詹姆斯·H·穆尔认为,该测试的主要优势在于它提供的愿景——“构建一种学习能力强的复杂通用智能”。无论通过图灵测试的机器是否能像我们一样思考,即拥有理解力或意识,这种愿景都为人工智能设定了一个有价值的目标。

(延伸阅读)

  • 《艾伦·图灵传:谜团》。安德鲁·霍奇斯。西蒙与舒斯特出版社,1983 年。

  • 《窥视中文房间:关于塞尔和人工智能的新论文集》。约翰·普雷斯顿和马克·毕晓普编辑。牛津大学出版社,2002 年。

  • 《图灵测试:人工智能难以捉摸的标准》。詹姆斯·穆尔编辑。克鲁维尔学术出版社,2003 年。

  • 神经形态微芯片。夸贝纳·博阿亨,载于《大众科学》第 292 卷,第 5 期,第 56–63 页(38–45 页);2005 年 5 月。

  • 像你一样思考的机器人……。道格拉斯·福克斯,载于《新科学家》第 2524 期,第 28–32 页;2005 年 11 月 5 日。

SA Mind Vol 17 Issue 2本文最初以“电动的想法?”为标题发表于SA Mind》第 17 卷第 2 期(),第 76 页
doi:10.1038/scientificamericanmind0406-76
© . All rights reserved.