会见末日智库的联合创始人

马丁·里斯,天体物理学家和生存风险研究中心创始成员,谈论区分科幻小说与真实的末日可能性

加入我们的科学爱好者社区!

今年,自2012年以来,“末日时钟”首次向前拨动。这个理论上对灾难的倒计时是由《原子科学家公报》于67年前制定的,该组织是由参与曼哈顿计划的科学家于1945年创建的监督机构。其当代的管理者已根据气候变化和裁军放缓的威胁,将时钟拨快了三分钟,更接近午夜。

但全球变暖和核阴霾并非人类面临的唯一威胁。一个组织正在关注新兴技术可能带来的潜在威胁——甚至没有人考虑过的危险。“生存风险研究中心”(CSER)于2012年在剑桥大学成立,旨在开发科学方法来评估新的全球风险——例如,确定机器人接管地球的情景是科幻小说还是现实的可能性。包括斯蒂芬·霍金、雅安·塔林(Skype的创始工程师)和哲学家休·普莱斯在内的一些世界上最伟大的思想家为这项事业做出了贡献。

《大众科学》采访了该中心的联合创始人之一,天体物理学家马丁·里斯勋爵,以思考我们所知的生命可能终结的方式。以下是编辑后的节选。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保未来能够继续报道关于塑造我们当今世界的发现和想法的有影响力的故事。


为什么要成立一个深入研究新技术威胁的组织?
纵观历史,我们的祖先都面临着风险:瘟疫、风暴、地震和人为灾难。但本世纪有所不同。这是第一个由一个物种(我们人类)能够决定地球的未来、威胁我们的文明并危及后代生存的世纪。

你们研究哪些类型的场景?
目前,专家们对于概率和影响都存在很大分歧。气候科学家们对于是否存在可能导致灾难的临界点存在分歧。人工智能专家们的观点也存在很大差异:一些人认为,拥有自主意识(以及与人类目标无关的目标)的人工智能可能会在本世纪中叶之前发展出来;另一些人则认为这种前景非常渺茫,并认为我们应该将关注点放在“愚蠢”的自主机器人(例如,军用无人机)的伦理和安全上。生物科技的前沿领域也已经展开了激烈的辩论。我希望 CSER 能够帮助就哪些风险最真实达成更坚定的共识,并帮助将这些风险提上议事日程。

您认为人类面临的主要风险是什么?它们有多严重?
我个人对社会应对生物技术进步的能力持悲观态度。在 20 世纪 70 年代,分子生物学的先驱们在阿西洛马会议上著名地制定了重组 DNA 的指南。今天,这些问题更加突出地出现。目前,人们对新技术的伦理和审慎性存在争论和焦虑:病毒的“功能增益”实验以及所谓的 CRISPR 基因编辑技术的使用。与 20 世纪 70 年代相比,现在的社会更加全球化、更具竞争力,也更容易受到商业压力的影响。我担心,无论可以做什么,都会在某个地方被某人完成。即使有正式商定的协议和法规,它们也像毒品法一样难以执行。在我的个人中期(10 到 20 年)风险登记表中,生物错误和生物恐怖主义的风险最高。

有没有什么人们担心的事情是不应该担心的?
许多生活在发达国家的人们对较小的风险(食物中的致癌物、低剂量辐射、飞机坠毁等等)过于担心。有些人对小行星撞击过于担心,而小行星撞击是自然风险中了解最透彻、最容易量化的风险之一。而且,很快就可以通过偏转飞向地球的小行星的路径来降低这种风险。这就是我支持 B612 Sentinel 项目的原因。

更应该让我们担心的是新出现的威胁。它们当然更值得关注,而这正是 CSER 旨在研究的内容。一个重要的格言是,不熟悉并不等同于不可能。风险太高了,即使我们能将灾难发生的概率降低百万分之一,我们也算没有白费功夫。

© . All rights reserved.