埃隆·马斯克全力投入自动驾驶汽车的新计划,充分信任确保他的特斯拉能够实时读取和应对不同驾驶情况所需的人工智能。人工智能正在做一些令人印象深刻的事情——例如,上周,AlphaGo 计算机程序的开发者报告说,他们的软件已经学会像本地人一样在错综复杂的伦敦地铁系统中导航。甚至白宫也加入了潮流,几天前发布了一份报告,以帮助美国为机器能够像人类一样思考的未来做好准备。
但计算机科学家奥伦·埃齐奥尼表示,人工智能要发展到人们可以或应该担心将世界交给机器的程度,还有很长的路要走。埃齐奥尼在过去的几十年里一直在研究并试图解决人工智能领域的基础问题。埃齐奥尼目前是艾伦人工智能研究所 (AI2) 的首席执行官,该组织由微软联合创始人保罗·艾伦于 2014 年成立,旨在关注人工智能的潜在益处——并反击好莱坞甚至其他研究人员所宣扬的关于人工智能可能威胁人类的信息。
AI2 自己的项目可能不是很引人注目——例如,它们包括一个名为 Semantic Scholar 的基于人工智能的学术研究搜索引擎——但它们确实解决了诸如推理等人工智能领域的问题,这将使该技术超越开发埃齐奥尼所说的“只能把一件事做得非常好的狭隘专家”。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业: 订阅。通过购买订阅,您将有助于确保未来能够继续讲述关于塑造我们当今世界的发现和思想的具有影响力的故事。
《大众科学》最近在纽约市举行的人工智能会议上采访了埃齐奥尼,他在会上表达了对公司过度推销该技术当前 capabilities 的担忧,特别是对一种称为深度学习的机器学习技术的担忧。这个过程通过模仿人脑神经网络建立的网络运行大型数据集,以教会计算机自行解决特定问题,例如识别模式或识别照片中的特定对象。埃齐奥尼还就为什么 10 岁的孩子比 Google DeepMind 的 AlphaGo 程序更聪明,以及最终需要开发能够防止其他人工智能程序变得危险的人工智能“守护者”程序发表了自己的看法。
[以下是采访的编辑稿。]
人工智能研究人员在开发这项技术的最佳方法上是否存在分歧?
有些人有点超前了。我们在语音识别、自动驾驶汽车(或至少是有限形式的自动驾驶汽车)以及当然还有 AlphaGo 等领域取得了一些真正的进展。所有这些都是非常真实的技术成就。但是我们如何解读它们呢?深度学习显然是一项有价值的技术,但是我们在创造人工智能方面还有许多其他问题需要解决,包括推理(意味着机器可以理解而不仅仅是计算 2 + 2 = 4),以及获得机器可以用来创建上下文的背景知识。自然语言理解是另一个例子。即使我们有 AlphaGo,我们也没有一个能够阅读并完全理解一个段落甚至一个简单句子的程序。
有人说,就人工智能而言,深度学习是“我们拥有的最好的”。这是否是对深度学习的否定?
当您拥有大量被标记的数据,以便计算机知道其含义,并且您拥有大量计算能力并试图在该数据中找到模式时,我们发现深度学习是无与伦比的。同样,以 AlphaGo 为例,该系统处理了 3000 万个位置,教会了人工智能程序在不同情况下采取正确的行动。还有其他类似的情况——例如,放射影像——其中图像被标记为有肿瘤或没有肿瘤,并且可以调整深度学习程序,然后确定它以前未见过的图像是否显示肿瘤。深度学习还有大量工作要做,是的,这是一项尖端技术。
那么问题是什么呢?
问题是,智能不仅仅是在您拥有大量可用于训练程序的数据的情况下。想想学生准备 SAT 或纽约州 Regents [大学入学] 考试等标准化考试时可用的数据。这不像他们可以查看 3000 万份以前被标记为“成功”或“不成功”的考试来获得高分。这是一个更复杂、更具交互性的学习过程。智能还包括从建议中学习,或在对话的上下文中学习,或通过阅读书籍学习。但同样,尽管深度学习取得了所有这些显着进步,我们仍然没有一个程序可以做 10 岁孩子可以做的事情,即拿起一本书,读一个章节,并回答关于他们所读内容的问题。
人工智能通过标准化考试的能力将如何在技术上取得重大进展?
我们实际上已经在艾伦人工智能研究所开始将其作为一个研究项目进行研究。去年,我们宣布为任何能够构建可以参加标准八年级科学考试的人工智能软件的人提供 50,000 美元的奖金。来自世界各地的 780 多个团队为此工作了几个月,但没有人能够得分超过 60%——即使这样也只是八年级考试中的选择题。这向我们展示了对我们今天所处位置的现实和定量评估。
表现最佳的人工智能系统是如何正确回答问题的?
通常语言中会有提示。最成功的系统使用了来自科学文本和其他公共资源的精心策划的信息,然后使用精心调整的信息检索技术对其进行搜索,以找到每个选择题的最佳候选答案。例如,什么是最好的导电体:塑料勺子、木叉子还是铁棒?程序非常擅长公式,并且可以检测到电力和铁或电导率和铁在大量文档中共同出现的频率远高于塑料和电导率。因此,有时程序可以走捷径并弄清楚。几乎就像孩子们做出有根据的猜测一样。由于没有系统得分超过 60%,我想说这些程序正在使用统计数据进行有根据的猜测,而不是仔细推理问题。
AlphaGo 背后的 DeepMind 团队现在拥有一个人工智能程序,该程序通过使用外部记忆系统超越了深度学习。他们的工作可能对创造更像人类的人工智能产生什么影响?
DeepMind 继续成为推动深度神经网络(旨在模仿人脑的人工智能)发展的领导者。这项特殊的贡献是朝着推理图形结构中连接的事实迈出的重要但很小的一步——例如地铁地图。现有的符号程序可以轻松执行此任务,但这里的成就——这值得在自然杂志上发表一篇论文——是让神经网络学习如何从示例中执行任务。总的来说,对于 DeepMind 来说是一大步,但对于人类来说是一小步。
例如,人们如何使用深度学习、机器视觉和记忆等方法的组合来开发更完整的人工智能?
这是一个非常吸引人的想法,实际上,我在华盛顿大学担任教授时的大量研究都是基于将互联网用作人工智能系统数据库的想法。我们构建了一种称为开放信息提取的技术,它索引了 50 亿个网页,从中提取句子,并尝试将它们映射到机器的可操作知识中。机器具有吸取网页并获取所有句子的超能力。问题是句子是文本或图片形式。我们人类的大脑拥有非凡的能力——我们 [计算机科学家] 尚未破解——将该动作映射到推理等等。使通用数据库和人工智能接口的想法成为科幻小说的是,我们还没有弄清楚如何将文本和图像映射到机器可以像人一样处理的东西。
您提到过,人类水平的人工智能至少还需要 25 年。您所说的人类水平的人工智能是什么意思?为什么是这个时间范围?
对自然语言的真正理解,人类智能的广度和普遍性,我们既能下围棋又能过马路又能做出像样的煎蛋卷的能力——这种多样性是人类智能的标志,而我们今天所做的只是开发出只能把一件小事做得非常好的狭隘专家。为了确定这个时间范围,我询问了人工智能促进协会的会士,我们何时才能实现一个在广义上与人一样聪明的计算机系统。没有人说这会在未来 10 年内发生,67% 的人说会在未来 25 年及以后,25% 的人说“永远不会”。他们会错吗?是的。但是你将信任谁,是那些掌握脉搏的人,还是好莱坞?
为什么这么多备受尊敬的科学家和工程师警告说人工智能会消灭我们?
我很难推测是什么促使像斯蒂芬·霍金或埃隆·马斯克这样的人如此广泛地谈论人工智能。我不得不猜测,谈论黑洞过一段时间就会变得无聊——这是一个发展缓慢的话题。我想说的一件事是,当他们和比尔·盖茨——一位我非常尊敬的人——谈论人工智能变坏或潜在的灾难性后果时,他们总是会加上一个限定词,说“最终”或这“可能”会发生。我同意这一点。如果我们谈论千年展望或无限期未来,人工智能是否有可能预示着人类的末日?绝对有可能,但我不认为这种长期讨论应该分散我们对人工智能与就业、人工智能与武器系统等实际问题的注意力。而关于“最终”或“概念上”的限定词在翻译中会丢失。
鉴于人工智能的缺点,人们应该担心汽车制造商对自动驾驶汽车日益增长的兴趣吗?
我不太喜欢没有方向盘或刹车踏板的自动驾驶汽车。以我对计算机视觉和人工智能的了解,我会对此感到非常不舒服。但我喜欢组合系统——例如,如果您在驾驶时睡着了,它可以为您刹车。人类驾驶员和自动化系统结合在一起可能比单独任何一方都更安全。这并不简单。将新技术融入人们的工作和生活方式并非易事。但我不确定解决方案是让汽车完成所有工作。
谷歌、Facebook 和其他知名科技公司最近启动了“人工智能造福人类和社会合作伙伴关系”,旨在为人工智能研究制定道德和社会最佳实践。这项技术是否足够先进,让他们能够进行有意义的对话?
世界领先的科技公司齐聚一堂思考这些事情是一个非常好的主意。我认为他们这样做是为了回应人们对人工智能是否会接管世界的担忧。许多这些担忧都被完全夸大了。即使我们有自动驾驶汽车,也不像 100 辆汽车会聚集在一起说:“让我们去占领白宫。”像埃隆·马斯克这样的人谈论的存在风险即使不是几个世纪,也至少还有几十年。然而,存在非常现实的问题:自动化、数字技术和人工智能总体上确实会影响就业前景,无论是机器人技术还是其他情况,这都是一个非常现实的担忧。自动驾驶汽车和卡车将大大提高安全性,但它们也会对我们经济中大量依赖驾驶谋生的工人产生影响。新小组要讨论的另一件事是歧视的可能性。如果人工智能技术用于处理贷款或信用卡申请,它们是否以合法和道德的方式这样做?
如何确保人工智能程序在法律和道德上都表现良好?
例如,如果您是一家银行,并且您有一个正在处理贷款的软件程序,您不能躲在它后面。说我的电脑做了这件事不是借口。即使计算机程序不使用种族或性别作为显式变量,它也可能从事歧视行为。因为程序可以访问大量变量和大量统计数据,它可能会发现邮政编码和其他变量之间的相关性,这些变量构成了替代种族或性别变量。如果它使用替代变量来影响决策,那将是非常有问题的,并且人很难检测或跟踪。因此,我们建议的方法是人工智能守护者的想法——人工智能系统,用于监控和分析人工智能贷款处理程序等程序的行为,以确保其遵守法律并确保其随着时间的推移保持道德。
人工智能守护者今天存在吗?
我们向社区发出呼吁,开始研究和构建这些东西。我认为可能有一些微不足道的守护者存在,但这在目前很大程度上仍然是一个愿景。我们希望人工智能守护者的想法能够对抗人工智能的普遍形象——在好莱坞电影《终结者》等电影中宣传的——即该技术是一种邪恶的、单一的力量。