本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定反映《大众科学》的观点
让我先说明白:我不认为“超级智能”人工智能是未来几代深度学习机器最紧迫的威胁。事实上,整个超级智能的概念可能只不过是一个哲学上的“假设”。我们根本不知道这种东西是否真的可以被制造、开发或进化出来——在地球上或宇宙中的其他地方。
目前,我们甚至没有一个令人信服的智能定量理论。这个理论既能告诉我们智能的真正含义(“哦,看,它能打开一罐豆子”),又能告诉我们智能实际上是如何随着复杂性扩展的,以及是否存在理论上的最大值。
智能可能遵循S型增长曲线(逻辑函数),就像许多自然(和非自然)现象一样。逻辑函数或曲线可能以指数增长开始,但随着事物饱和,然后趋于平缓或稳定。一个简单的例子是理想化的人口增长,其中生物数量的快速增长与食物或资源的可用性相抵消,最终趋于平稳。
支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和想法的具有影响力的故事的未来。
不难想象,对于智能来说,可能确实存在指数增长的机制,但这将需要复杂性的指数增长,也许最关键的是效率、连接性、相互通信以及部件(无论是生物的还是机器的)的数据流。因此,也不难看出,我们目前所知的智能可能会饱和。
但是曲线的指数部分在哪里?它是在我们前面,还是已经过去了?我们的机器,我们的人工智能,会比我们想象的更早饱和吗?我认为我们目前处于深刻的无知之中。就我们所知,人类智能已经接近普遍可能的最大值。我怀疑答案只能来自实验,或者来自对智能的基本理论的发展。
因此,任何关于外星智能是“超级智能”代理人的提议,在这个阶段都应该被视为挑衅性的猜测。事实上,我的猜测是,宇宙中最丰富的智能类型更可能是“学者型”机器——我们目前像谷歌的AlphaGo及其后代这样的专家的表亲。
由于所有这些原因,我并不像担心地球上的超级智能人工智能那样担心相对愚蠢的人工智能,这些人工智能的目的是(或附带能力)操纵我们与信息的关系;与事实,以及与我们感知的现实的关系。这可能是最大的威胁。
使用像对抗性学习这样的技术,我们已经目睹了人工智能可以模仿我们的声音到接近完美的程度。类似的方法大概也可以应用于我们的写作风格、短信和社交媒体帖子。伪造我们在照片中的外貌,或生成我们似乎做了我们从未做过的事情的视频也在酝酿之中(就像这个非凡的奥巴马总统假片段)。
这些系统可能会走得更远(如果它们还没有,就很难跟上发展步伐)。为什么不使用人工智能生成完整的新闻报道或八卦专栏呢?好莱坞小报反正几乎不需要事实,而主流新闻媒体有时似乎也效仿。
对于误导我们任何人来说,都存在巨大的潜力。通过欺骗我们来窃取我们的个人详细信息,或创建一个备用版本的我们来进行任何形式的反社会甚至犯罪行为——让我们成为报复或法律系统的目标。或者仅仅是操纵我们,使我们倾向于想要某些商品,或以某种方式投票,或相信某些事情。第一个福音派人工智能将轻易超越最离谱的人类传教士。
与假设的超级智能(其动机难以想象)不同,使用人工智能来剥削人或社会遵循着古老的模式。
从我们的原始人类祖先和表亲开始交流和讲故事的那一刻起,我们人类可以说一直在侵蚀我们自己的现实。一个好的炉边故事可能有助于维护口头历史,或阐明道德和社会规则,帮助将凝聚力带给我们的家庭和群体。但它可能,也许不可避免地,误导、扭曲和操纵。
这种行为甚至不局限于我们的“智能”物种。欺骗在自然界中随处可见。动物伪装自己,或假装成它们不是的东西——从模仿有毒物种的外观到蓬起羽毛、鳞片或皮肤,或寄生地倾倒后代让其他物种担心。许多物种的雄性装饰自己或建造诱人的结构,并诉诸彻底的诡计以努力传播它们的基因。欺骗似乎和诚实一样是达尔文选择的一部分。误导的能力中存在一定程度的进化适应性。
机器的情况似乎也好不到哪里去,无论是通过设计还是通过它们自己的选择压力——如果输赢是唯一重要的,那么,小心点。
当然,正如物理学家尼尔斯·玻尔所说,好的预测非常难以做出,尤其是当它们是关于未来的预测时。但有一件事是肯定的,我们将要了解很多关于智能可能在宇宙中任何地方采取的轨迹——假设我们完全可以看到真相。