本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定反映《大众科学》的观点
传说,中世纪哲学家和方济各会修士罗吉尔·培根创造了一个全知的人工大脑,并将其包裹在一个青铜制、类人头的装置中。故事说,培根希望利用从这个“青铜头颅”中收集到的见解,确保英国永远不会被征服。
继培根之后,工程师和计算机科学家长期以来的挑战一直是构建一个基于硅的、可以媲美甚至超越人类智能的大脑复制品。这一雄心壮志促使我们去想象,如果我们成功创造出下一代能够为我们思考、梦想和推理的计算机系统,我们可能会做些什么。
今天,人们很少谈论青铜头颅,但人工智能似乎无处不在。杂志和报纸文章无休止地宣传它,大致以相同的程度引发了期望和恐惧。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。
某些形式的人工智能确实正变得无处不在。例如,算法在我们金融市场上执行大量的交易,自动驾驶汽车开始在城市街道上导航,我们的智能手机正在从一种语言翻译成另一种语言。这些系统有时比我们人类更快、更敏锐。但到目前为止,这只适用于系统被设计的特定任务。这是现在一些人工智能开发者渴望改变的事情。
当今的一些人工智能先驱希望从今天的“弱”或“狭义”人工智能世界走向“强”或“完全”人工智能,或者通常被称为通用人工智能(AGI)的世界。在某些方面,今天强大的计算机器已经让我们的大脑显得渺小。它们可以存储大量数据,以极快的速度处理数据,并与地球上所有其他计算机即时通信。如果这些设备能够配备以更灵活的方式工作的通用人工智能算法,那么机会将是巨大的。
通用人工智能,其支持者说,可以勤奋地为我们工作,全天候工作,并利用所有可用的数据,为许多迄今为止已被证明难以解决的问题提出解决方案。它们或许可以帮助提供有效的预防性医疗保健,避免股市崩盘或防止地缘政治冲突。谷歌的DeepMind公司专注于通用人工智能的开发,其目标是“解决智能”这一宏伟目标。“如果我们成功了,”他们的使命宣言写道,“我们相信这将是有史以来最重要和最广泛有益的科学进步之一。”
自人工智能的早期以来,想象力已经超越了可能甚至可能实现的程度。1965年,一位富有想象力的数学家欧文·古德,他曾是二战期间在布莱切利公园破译密码团队中艾伦·图灵的同事,预测了最终会创造出“超智能机器……它可以远远超越任何人的所有智力活动,无论这个人多么聪明”。他预测,这样一台机器将能够将其巨大的智慧用于改进自身——每次调整都会提高其增强自身能力的能力,从而导致快速加速的正反馈循环。“然后无疑会出现‘智能爆炸’,”古德写道,“人类的智能将被远远抛在后面。”
古德接着提出,“第一台超智能机器”可能是“人类需要制造的最后一项发明”。这引出了雷·库兹韦尔提出的所谓“技术奇点”的概念,他认为超智能计算机的到来将是我们历史上的一个关键转折点,此后将爆发技术和智力才能,这将改变存在的方方面面。古德在他的“最后一项发明”预测中增加了一个重要的限定条件:我们能够收获其益处的想法“前提是这台机器足够温顺,可以告诉我们如何控制它”。
对恶性、强大、人造智能机器降临的恐惧已被许多虚构作品所强化——例如,玛丽·雪莱的《弗兰肯斯坦》和《终结者》电影系列。但如果人工智能最终被证明是我们的垮台,那不太可能是像这些人类形态的人造物造成的,它们具有可识别的人类动机,如侵略或报复。
相反,我同意牛津大学哲学家尼克·博斯特罗姆的观点,他认为通用人工智能最严重的风险不是来自反对人类的决定,而是来自不顾一切地追求既定目标,不惜一切代价。伯克利人工智能研究员斯图尔特·罗素总结了他认为这个问题的核心:“例如,如果你说,‘我希望我触摸到的一切都变成金子’,那么这正是你将会得到的,然后你会后悔的。”如果计算机真的变得非常智能,那么没有理由期望它们会分享人们会认为是正义或同情心的任何能力。
真正通用人工智能的前景和危险都是巨大的。但是,所有今天关于这些可能性的激动人心的讨论都预设了我们将能够构建这些系统这一事实。而且,在与世界上许多最杰出的人工智能研究人员交谈之后,我们有充分的理由怀疑我们是否会在不久的将来看到通用人工智能,甚至永远不会看到。
罗素认为,“我们离拥有任何你可以识别为通用智能的东西还有几个算法突破的距离。”腾讯公司前人工智能研究主管张潼也同意:“如果你想要通用人工智能,当然有很多障碍需要克服。”麻省理工学院机器人专家辛西娅·布雷泽尔说:“我只是在不久的将来看不到任何跨领域的通用超级智能的实际驱动因素。” Beyond Limits公司的马克·詹姆斯也怀疑是否有人真的在开发真正的通用人工智能,他说,“为了让人工智能领域真正进步到拥有真正类人思维机器的程度,我们需要从头开始重新思考这个问题。”
我认为詹姆斯是对的——毕竟,我们怎么能设计出我们甚至无法定义的东西呢?我们从未真正弄清楚自然人类智能是什么,所以不清楚工程师们试图在机器中模仿什么。与其说智能是一个单一的物理参数,不如说智能有很多类型,包括情感智能、音乐智能、运动智能和数学智能。剑桥大学教授兼Uber首席科学家祖宾·加拉曼尼也同意:“我实际上不认为存在通用智能这样的东西,”他告诉我。如果不存在通用智能这样的东西,那么就既没有希望用合成部件也没有希望用生物部件来构建它。加拉曼尼更进一步,认为“我们对智能的看法是‘前哥白尼式的’。”正如地球不是我们太阳系的中心一样,人脑也不代表智能的顶峰。
所有这一切意味着,即使我们能够模仿人脑的智能,那也未必是通往强大形式的通用人工智能的最佳途径。正如加州大学伯克利分校的著名人工智能研究员迈克尔·乔丹指出的那样,土木工程的发展不是通过试图创造人工砌砖工或木匠来实现的,化学工程也不是源于创造人工化学家,那么为什么有人会相信信息工程的大部分进展应该来自试图构建人工大脑呢?
相反,我认为工程师应该将他们的想象力引导到构建以我们无法想象的方式思考的计算机系统:处理不确定性,通过考虑成千上万甚至数百万个不同的变量来计算风险,并整合来自许多不同来源的大量结构不良的数据。
这一切都不是为了否定日益适应性强的人工智能算法的力量,也不是为了忽视它们有一天可能通过意想不到的副作用或恶意应用带来的风险。但是,如果我们有理由相信,具有广义类人智能的机器是不可能的,那么许多关于人工智能的担忧就会烟消云散;没有必要在人工智能系统的运行中写入任何严格定义的道德准则或价值体系。相反,我们的目标应该是使它们可控且对我们的需求高度响应。许多一流的研究人员和思想家正在投入大量时间和精力来预防与人工智能相关的问题,使其在出现之前就得到解决。
罗素认为,使人工智能系统更安全、更强大的关键在于使其目标本质上不明确,或者用计算机科学术语来说,是将不确定性引入其目标。正如他所说,“我认为我们实际上必须从基础上重建人工智能。已经建立的基础是理性[类人]主体对目标的优化。这只是一个特例。”罗素和他的团队正在开发算法,这些算法将积极寻求向人们学习他们想要实现什么以及哪些价值观对他们重要。他描述了这样一个系统如何提供一些保护,“因为你可以证明一台对其目标不确定的机器愿意,例如,被关闭。”
像这样的工作很重要,特别是因为罗素和他的合作者不仅仅是在指出定义不清的风险,而且还在提出具体的解决方案和保障措施。这就是斯坦福大学人工智能教授、谷歌云前负责人李飞飞对我说“仅仅宣扬一种[关于人工智能的]反乌托邦是不健康的。宣扬一种深思熟虑的信息要负责得多”的意思。
如果在 20 世纪早期物理学的巨大飞跃中提出的唯一信息是对迫在眉睫的核末日的可怕警告,那么我们现在就不会拥有所有源于我们对原子结构和量子力学的理解的惊人发现。与人工智能相关的风险必须保持在适当的范围内,并通过建设性的行动和监管来应对,而不是忧心忡忡和杞人忧天。
在极度乐观和令人恐惧的悲观之间,存在着人工智能更现实的未来。早在计算机达到任何接近超智能的程度之前,它们将继续以影响深远且难以预测的方式改变我们的生活和思维方式。随着我们的计算机变得更智能,人类也将变得更智能、更有能力。我们将需要机器产生的处理能力和日益智能的见解来应对我们最紧迫的全球挑战——从应对气候变化到治愈癌症——并寻求解答关于我们自身以及我们在更广阔宇宙中的位置的最深刻的问题。
尽管中世纪炼金术士罗吉尔·培根努力尝试,但工程师迄今为止在尝试以机器形式模仿人脑方面均告失败。他们很可能永远不会成功实现这一雄心壮志。但这种失败是无关紧要的。无论今天先进的人工智能系统以截然不同于人类的方式思考这一事实如何,它们都是我们构建的最强大的工具之一。如果我们明智而负责任地运用它们,它们可以帮助我们为全人类建设更美好的未来。