在我生命的大部分时间里,我对机器人感到失望。电影总是将它们描绘成会走路、会说话、类人、聪明且酷炫的形象。但几十年来,真正的机器人只不过是汽车工厂的装配线手臂。
不过,在过去三年里,情况发生了一些变化。自动驾驶汽车已在公共道路上行驶了近两百万英里。无人机已经变得足够智能,可以避开障碍物。而双足行走的机器人突然变成了现实。
现在,包括比尔·盖茨、斯蒂芬·霍金和埃隆·马斯克在内的知名人士正在公开谈论我们日益智能的机器所带来的危险。“完全的人工智能可能意味着人类的终结,”霍金曾对 BBC 表示。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来继续产出关于塑造我们当今世界的发现和想法的有影响力的报道。
容易受惊的公众不信任人工智能是一回事。但盖茨、霍金和马斯克也这样认为?
事实证明,这三位都是在回应麻省理工学院教授马克斯·泰格马克发起的一项倡议。他在 2014 年共同创立了生命未来研究所,该研究所的宗旨是考虑人工智能的阴暗面。
“当我们发明不太强大的技术,比如火时,”泰格马克告诉我,“我们搞砸了很多次;然后我们发明了灭火器。搞定。但是对于像人类水平的人工智能这样更强大的技术,我们希望第一次就把事情做对。”
令人担忧的是,一旦人工智能变得足够智能,它将能够每小时或每分钟不断改进自己的软件。它将很快变得比人类聪明得多,以至于——好吧,我们实际上不知道。“这可能很棒,也可能很糟糕,”泰格马克说。
在艾萨克·阿西莫夫的许多未来主义故事中,人类为机器人编写了机器人三定律。例如:“机器人不得伤害人类,也不得因不作为而使人类受到伤害。” 这种软件难道不能保障工作吗?
“关于阿西莫夫小说的有趣之处,”泰格马克说,“几乎所有关于三定律的故事都是关于它们出了什么问题。”
精确地编程机器来服从我们可能会以意想不到的方式适得其反。“如果你告诉你的超级人工智能汽车尽可能快地到达机场,它会把你送到那里——但你到达时会被直升机追赶,浑身都是呕吐物。” 这与预期不太一样。
但是还有更大的危险。今年 7 月,泰格马克的小组发布了一封公开信,对自主武器日益增长的威胁表示担忧——这是恐怖分子的梦想。(霍金、马斯克和苹果公司联合创始人史蒂夫·沃兹尼亚克是这封信的 2500 名联署人之一。)联合国正在讨论禁止人工智能武器。
在更日常的层面上,机器人可能会夺走我们更多的工作。当然,首当其冲的是那些最重复性或最容易自动化的工作,例如店员、税务员和律师助理。(一些日本银行已经雇用机器人来协助客户。)“如果你教幼儿园或你是按摩治疗师,你将可以在更长的时间内保住你的工作,”泰格马克说。他认为,撇开经济因素不谈,失业也将意味着人类成就感的丧失。“今天,我们如此多的目标感来自我们的工作。我们应该认真思考我们希望继续从事并从中获得认同感的工作类型。教育?艺术、文化、服务业?或者到底是什么?”
这种警钟促使马斯克(特斯拉汽车公司联合创始人兼 SpaceX 创始人)向生命未来研究所捐赠了 1000 万美元(并与霍金等人一起担任该事业的科学顾问)。该小组迄今已收到数百份研究资助提案,资助了其中数十份,并就该主题举行了多次重要会议。
最终,信息不是人工智能将不可避免地将我们引向末日或厌倦的生活,而是我们对其影响的思考应与人工智能本身的快速发展保持同步。“如果我们做得对,人工智能也具有巨大的优势——有可能治愈所有疾病、消除贫困、帮助生命传播到宇宙中。我们不要像没有正确升起风帆的帆船那样随波逐流。让我们规划我们的航程,精心计划,”泰格马克说。