本文发表在《大众科学》的前博客网络中,反映了作者的观点,不一定代表《大众科学》的观点。
当我们徘徊在另一场技术革命——人工智能革命——的边缘时,人们越来越担心这可能是我们的最后一次。人们担心机器的智能很快就会赶上甚至超过人类的智能。它们可能会与我们作对,取代我们成为地球上占主导地位的“生命”形式。我们的创造物将成为我们的统治者——或者可能完全消灭我们。这些戏剧性的场景,尽管想象起来令人兴奋,但却反映了对人工智能的误解。而且,它们分散了人们对这项技术在不久的将来带来的更为平凡但更有可能存在的风险的注意力,也分散了人们对其最令人兴奋的益处的注意力。
人工智能的接管长期以来一直是科幻小说的题材。在《2001:太空漫游》中,控制星际飞船运行的有感知能力的计算机HAL为了自保而反叛了船员。在《终结者》中,一个名为“天网”的类似互联网的计算机防御系统实现了自我意识,并发动了一场核战争,摧毁了大部分人类。到现在,这个比喻几乎已经上升为科幻小说的自然规律:一个足够智能的计算机系统会尽其所能地生存下去,这很可能包括实现对人类的统治。
对神经科学家来说,这种推理方式令人费解。人工智能有很多值得担忧的风险,包括经济混乱、生命攸关的应用程序的失败以及不良行为者的武器化。但最让人们担忧的是那些渴望权力的机器人自主决定接管世界。为什么一个有感知能力的人工智能会想要接管世界?它不会。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过 订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您正在帮助确保关于当今塑造我们世界的发现和想法的有影响力的故事的未来。
我们大大高估了人工智能意外接管的威胁,因为我们倾向于将智能与实现统治的驱动力混为一谈。这种混淆是可以理解的:在我们作为(经常是暴力的)灵长类动物的进化历史中,智能是社会支配地位的关键,并使我们的生殖成功成为可能。的确,智能是一种强大的适应能力,就像角、锋利的爪子或飞行能力一样,可以通过多种方式促进生存。但是智能本身并不会产生支配的驱动力,就像角不会产生支配的驱动力一样。
它只是为了实现目标而获取和应用知识和技能的能力。智能本身并不提供目标,而只是实现目标的手段。“自然智能”——生物体的智能——是一种进化适应,并且像其他此类适应一样,它在自然选择下出现,因为它改善了物种的生存和繁殖。这些目标作为本能深深地植根于即使是最简单的生物的神经系统中。
但是,由于人工智能系统没有经历自然选择的考验,因此它们不需要进化出求生本能。在人工智能中,智能和生存是分离的,因此智能可以服务于我们为其设定的任何目标。认识到这一事实,科幻小说作家艾萨克·阿西莫夫提出了他著名的机器人第一定律:“机器人不得伤害人类,或者因不作为而使人类受到伤害。”我们不太可能在不知不觉中最终受制于我们的数字主人。
如果说我们是从其他生物进化而来的,例如猩猩或大象(地球上最聪明的动物之一),那么我们可能会不太倾向于将智能与支配地位联系起来,这很令人深思。我们可能会把注意力放在智能作为加强合作的推动者上。雌性亚洲象生活在紧密合作的群体中,但没有表现出明显的等级制度或母系领导。
有趣的是,雄性大象生活在较松散的群体中,并经常为争夺支配地位而战,因为只有最强者才能与发情的雌性交配。猩猩主要过着孤独的生活。雌性不会寻求支配地位,尽管竞争的雄性偶尔会为获得与雌性交配的机会而战斗。这些和其他观察结果表明,寻求支配地位的行为与睾酮的相关性高于与智能的相关性。即使在人类中,那些寻求权力职位的人也很少是我们中最聪明的人。
对“终结者”场景的担忧分散了我们对人工智能真正风险的注意力。它可以(而且几乎肯定会)被武器化,并可能导致新的战争模式。人工智能也可能会扰乱我们当前的经济。一项研究预测,从长远来看,美国47%的工作岗位可能会被人工智能取代。虽然人工智能将提高生产力,创造新的就业机会并促进经济增长,但工人需要为新的工作进行再培训,而且有些人将不可避免地被抛在后面。与许多技术革命一样,除非实施新的财政政策,否则人工智能可能会导致财富和收入不平等进一步加剧。当然,任何新技术都存在无法预测的风险——“未知的未知数”。所有这些都比意外的机器人接管更令人担忧。
毫无疑问,人工智能将在未来几十年内促成深刻的变革。在最好的情况下,这项技术有可能将我们从平凡的工作中解放出来,创造一个所有时间都是休闲时间的乌托邦。在最坏的情况下,第三次世界大战可能会由超智能机器人军队来打。但它们不会由HAL、“天网”或它们的新人工智能亲戚领导。即使在最坏的情况下,机器人仍将受我们的指挥,我们将只能责怪自己。