本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定反映《大众科学》的观点
近期签署的旨在建立美国人工智能倡议的行政命令,正确地将人工智能确定为美国竞争力和国防的核心。然而,目前尚不清楚人工智能是否已经取得了像许多人声称的那样多的成就。事实上,当前的技术并没有令人信服地展示出任何接近“智能”的东西。
为了保持美国在人工智能领域的领先地位,最佳的前进方向是采取一种更贴近人类学习方式的策略,这将使我们走上充分实现人工智能所承诺的经济增长和广泛社会效益的最佳道路。
这是大多数深度学习神经网络面临的挑战,它们反映了当前人工智能的主流方法:称它们既“深度”又“智能”是假设它们在网络更深层次上实现了对数据越来越抽象和有意义的表示。它进一步假设,在某个时候,它们超越了死记硬背,实现了真正的认知或智能。但事实并非如此。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保未来能够持续产出关于塑造我们当今世界的发现和想法的有影响力的报道。
以计算机视觉为例,深度神经网络在基准图像分类任务中取得了惊人的性能提升。假设我们要求计算机视觉算法正确地将图像标记为猫或狗。如果算法正确地标记了图像,我们可能会得出结论,底层深度神经网络已经学会了区分猫和狗。
现在假设所有的狗都戴着闪亮的金属狗牌,而猫都没有戴猫牌。最有可能的是,深度神经网络根本没有学会识别猫和狗,而只是学会了检测闪亮的金属标签。最近的研究表明,类似的情况实际上支撑着深度神经网络在计算机视觉任务中的表现。解释可能不像闪亮的金属标签那么明显,但大多数学术数据集都包含类似的无意线索,而深度学习算法会利用这些线索。
使用旨在挫败神经网络的对抗性示例,增加了更令人不安的证据,表明深度神经网络可能根本没有“看到”,而仅仅是在检测肤浅的图像特征。简而言之,对抗性示例是通过反向运行用于训练深度神经网络的相同计算工具来创建的。研究人员发现,对图像进行非常轻微的修改(人类无法察觉)就可以欺骗深度神经网络,使其错误地分类图像,而且通常是彻底的错误分类。
事实证明,问题在于计算误导。添加或删除几个像素就可以消除深度神经网络已经学会依赖的特定线索。更根本的是,这个错误表明,深度神经网络依赖于肤浅的图像特征,而这些特征通常缺乏意义,至少对人类而言是如此。
这为不良行为者使用有针对性的对抗性示例制造了严重恶作剧的机会。例如,如果您指望自动驾驶汽车(旨在识别道路标志)或识别指纹的安全系统能够进行一致的图像识别,那么您就麻烦了。
这种缺陷是架构固有的。以色列 Naftali Tishby 领导的最新研究发现,深度神经网络在每一层都会选择性地丢弃非必要信息。一个经过充分训练的深度神经网络已经丢弃了大量信息,并且变得如此依赖于少数关键的肤浅特征——“闪亮的金属标签”,以至于它已经失去了所有智能的表象。深度学习更准确地描述为深度遗忘。
更糟糕的是,深度神经网络没有通过类比学习的能力,而类比学习是所有智能的基础。例如,人类和其他动物使用类比来学习世界由具有共同属性的物体组成。无论是石头、苹果还是棒球,所有这些物体都会掉到地上,因为它们都遵循在智能发展过程中学到的直觉物理定律。
布朗大学的研究人员最近测试了深度神经网络是否可以通过类比学习。该团队发现,神经网络未能学习“相同性”的概念。深度神经网络没有通过类比学习训练图像集中相似图像示例背后的基本概念,而是简单地记忆了一组模板,用于正确标记训练集中的图像。这些网络没有获得推广到训练数据之外的能力。
很难想象有什么比无法通过类比学习更能严厉地谴责深度学习的了。基本上,所有认知发展都依赖于学习和抽象一组具体示例背后的原理。到目前为止,深度学习在这方面的失败揭示了当前人工智能系统所呈现的智能外表背后的空虚。
通过跳过漫长而缓慢的认知发展过程,转而专注于解决具有高商业或营销价值的特定任务,我们剥夺了人工智能以智能方式处理信息的能力。
当真正智能的机器最终出现时——而且它们可能会出现——它们将与深度神经网络或其他当前的人工智能算法截然不同。未来的道路将通过模仿生物学的系统来实现。像它们的生物学对应物一样,智能机器必须通过类比学习来获得对周围物理现象的直觉理解。为了走向这个未来,我们必须首先退后一步,给予我们的机器一个婴儿期,让它们在世界的结构中摸索,并发现所有智能推理都依赖的直觉物理学。