谁想成为一个赛博格?

哲学家苏珊·施耐德权衡了激进技术增强的利弊

苏珊·施耐德

三月初——在“过去”的时代——我坐在学校一个拥挤的礼堂里,听一位哲学家谈论一些与我们所知道的完全无关的事情。演讲者,苏珊·施耐德,思考了人工智能和其他技术如何可能改变我们的身体和思想,无论是好是坏。她在她生动的新书《人工你:人工智能与你思想的未来》中也探讨了这些主题。最近发生的事件分散了我们对技术增强的思考,奇点和所有相关内容的思考,但这些问题仍然重要,施耐德对它们有着挑衅性的看法。施耐德是巴鲁克·S·布隆伯格 NASA/国会图书馆天体生物学主席,她最近一直很忙。她最近成为了佛罗里达大西洋大学威廉·F·迪特里希杰出哲学教授,并在大脑研究所联合任职;她还在创立一个关于智能未来的中心。尽管如此,她还是抽出时间回答了一些问题。——约翰·霍根

以下是采访的编辑稿。

霍根:神经科学家克里斯托夫·科赫建议我们植入大脑芯片以跟上机器的步伐。你觉得这是个好主意吗?


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的有影响力的故事的未来。


施耐德:这取决于更大的社会和政治环境。目前有几个大型研究项目试图将人工智能植入大脑和周围神经系统。他们的目标是在无需键盘中介的情况下将您连接到云端。对于像 Neuralink、Facebook 和 Kernel 这样从事这项业务的公司来说,您的大脑和身体是未来利润的竞技场。如果没有适当的立法保障,您的思想和生物识别数据可能会被卖给出价最高的人,而专制独裁政权将拥有终极的思想控制设备。因此,隐私保护至关重要。

我还有其他担忧。我担心人们会感到有压力使用大脑植入物,以便他们在工作或大学中保持竞争力。增强应该是真正可选的。此外,我担心如果只有少数精英得到增强,那么富人和穷人之间将存在巨大的智力鸿沟。今天的数字鸿沟可能会演变成思想的数字鸿沟!我相信克里斯托夫不希望出现这样的未来,他假设这些增强是在平等主义的背景下进行的。但问题是如何从这里到达那里。

霍根:对意识的哲学研究与关于增强的辩论相关吗?

施耐德:是的。这是我在《人工你》中探讨的一个假设情景。假设现在是 2040 年,您正在购物。您漫步走进一家从事“美容神经学”的商店:心智设计中心。在那里,客户可以从各种大脑增强功能中进行选择。例如,“人类计算器”将赋予您专家级的数学能力;“禅宗花园”可以给您带来禅宗大师的冥想状态。据传,如果临床试验按计划进行,客户将能够购买名为“融合”的增强套装。“融合”是一系列增强功能,允许客户在五年内逐步增强并将其所有心理功能转移到云端。

假设这些增强在医学上是安全的,如果可以的话,您会购买什么?

除了我刚才提出的担忧之外,在做出决定时,还要牢记两个哲学问题。首先,要了解以这些激进的方式进行增强是否明智,您必须首先了解您是什么以及您是谁。哲学家长期以来一直在争论自我和思想的本质,可以说存在大量的哲学分歧。例如,如果自我或思想密切依赖于您拥有一个运转良好的大脑,如果您用微芯片替换太多的大脑,那么您将在某个时候杀死自己!这根本不是增强。我将这种现象称为“脑流失”

第二个问题涉及意识的本质。请注意,在您清醒的生活中,甚至在您做梦时,感觉总是像是成为你。此刻,您正在体验身体感觉,听到背景噪音,看到页面上的文字。您正在经历有意识的体验。

哲学家长期以来将意识的本质视为一个谜。他们指出,我们并不完全理解为什么大脑中的所有信息处理感觉像是某种东西。他们还认为,我们仍然不理解意识是否是我们生物基质所独有的,或者其他基质(如硅微芯片)是否也能够成为意识体验的底层基质。

为了便于讨论,假设微芯片不是意识的正确基质。在这种情况下,如果您用微芯片替换大脑的一个或多个部分,您将减少或结束您作为有意识的生命的生活!

如果这是真的,那么您就不想购买“融合”,至少如果您关心生存的话。事实上,您会非常小心地添加哪怕一个大脑芯片,因为担心这样做会影响意识或以过于激进的方式改变您的身份。否则,您可能会花钱结束您自己的存在!

如果芯片不是意识的正确基质,那么意识可能就是人类智能增强的设计上限。相比之下,人工智能没有这个限制,但它们将无法拥有意识。但是它们仍然可能比我们更聪明,如果它们真的这样做了,这将意味着地球上最聪明的实体甚至没有意识。这个问题使得确定机器是否有意识非常重要。幸运的是,我认为我们最终可以了解微芯片是否是意识的基质。我在书中提出了两种人工意识的测试。

霍根:《人工你》中,您将自己描述为超人类主义者,但您对超人类主义的目标表示怀疑,例如将上传作为通往永生的途径。您在哪些方面是超人类主义者?

施耐德:作为一名大学生,我对地球上的技术乌托邦的超人类主义愿景着迷。超人类主义者认为,增强人类智力和延长寿命是可取的,无论是从个人发展的角度还是从我们整个物种的发展角度来看。在我们周围,超人类主义的愿景正变得越来越真实。例如,泰德·伯杰的实验室创造了一个人工海马体,以取代那些无法形成新记忆的人失去的海马体功能。美国国防部资助了一个名为“突触”的项目,该项目试图开发一种在形式和功能上都类似于大脑的计算机。现在在谷歌担任工程主管的未来学家雷·库兹韦尔甚至讨论了与个性化人工智能系统建立式友谊的潜在优势。

我仍然认为自己是超人类主义者,因为我希望新兴技术能够为我们提供疾病治疗、延长寿命,甚至在我们需要增强的情况下增强我们的精神生活。然而,我认为某些超人类主义目标是构想不周的,例如思想上传。我的担忧类似于我讨论的关于您假设访问心智设计中心的问题。

例如,考虑一下亚马逊的热门节目《上载》。现在是 2033 年,内森·布朗发生了一起罕见的事故,为了在最后的努力中幸存下来,并在急诊室里受到一位控制欲强的女朋友的怂恿,她正等着抓住他即将成为的化身,他将自己的大脑上传到计算机上。他在某种程度上醒来在“数字天堂”里。(这是一部喜剧。)事实上,天堂是一个公司廉价的终极山地小屋假期,充满了鲜艳的秋叶,但却充满了算法故障,导致他有时渴望真正的死亡。(这个节目在疫情期间观看很有趣;内森的居家隔离比我的更糟。)《人工你》认为,即使这项技术有效,像内森这样的人也无法幸存。充其量,尝试扫描会创建一个数字分身。也许这个存在会有意识,也许不会,但在任何情况下都不会是他。可悲的是,当他的生物大脑被摧毁时,真正的内森死在了扫描台上。

霍根:您会热切拥抱哪种认知增强?您想永生吗?

施耐德:我左右为难。一方面,我被增强意识、情感、认知能力和感知能力的理念所吸引。放马过来吧!另一方面,我担心,考虑到涉及人性的形而上学不确定性,我们可能会在对“自我或人性的本质是什么?”这个问题有明确、无争议的答案之前,就面临增强的决定。当然,尝试一下我可能没有什么损失。例如,也许我知道我会在一个月后死于进行性脑肿瘤。我确信上传只会创建一个分身,但考虑到严峻的形势,我可能会做出信念的飞跃并选择一些大脑芯片。也许我会很幸运,脑流失不会发生。

当然,真正的永生需要灵魂或非物质的思想。那些渴望通过激进增强实现永生的人正在寻求不同的东西,一种技术设置,使他们能够在宇宙大爆炸之前一直存在,甚至成为宇宙热寂的旁观者。我称之为“功能性永生”,以区别于真正的永生。

我以前的老师伯纳德·威廉姆斯(Bernard Williams)曾说过他不觉得永生有什么吸引力。他担心,如果缺乏新的和具有挑战性的任务,我们会觉得永生很乏味。也许我们会感到无聊,就像威廉姆斯怀疑的那样,但我怀疑我们能预料到在这种情况下我们会是什么感觉。我个人来说,我很想知道,知道自己可以活到宇宙尽头是什么感觉,哪怕是2000年、20万年或200万年后!

如果我知道我仍然是我自己,我非常乐意接受各种认知增强。为了安全起见,我会坚持缓慢的生物增强,以免损害生物大脑或在短时间内导致我的能力发生剧烈变化。也许,在做了几百年自己之后,我会渴望改变,并且我会进行增强,即使知道我可能会结束自己的存在。在这种情况下,我不会真正永生,即使是从功能性永生的意义上来说,但我的“后代”可能会活到宇宙尽头。

霍根:一些专家,比如加里·马库斯,认为人工智能被过度炒作,可能正走向另一个“人工智能寒冬”。但在《人工的你》中,你预测,长期以来人们追求的人工“通用”智能,或称AGI,可能会在“未来几十年内”实现。是什么让你如此乐观?

施耐德:我当时试图用“几个”这个词来保持开放性。我很乐意尝试更具体一些,但首先,我想说,我认为目前关于AGI的讨论把很多问题混淆在一起了,“人类水平的人工智能”是一个误导性的基准。今天的人工智能是特定领域的系统——在单个领域表现出色的系统,例如国际象棋或面部识别。通用智能超越了单纯的特定领域处理。人类以及非人类动物(老鼠、猫、乌贼等)都是通用智能;它们整合跨感官领域的材料,并表现出认知灵活性。

通用性是一个程度问题。事实上,有些人认为人脑更像一把瑞士军刀,拥有各种特定领域的模块,这些模块不是由中央执行器或类似CPU的结构整合的。也许遥远的未来的人工智能系统会比我们更通用,表现出更灵活、跨领域的处理能力以及感觉模式之间更强的相互整合。也许存在外星智能,它们的大脑表现出比人类大脑更多的整合。所以,也许我们根本不是非常“通用”的认知者!

尽管如此,我怀疑第一代合成通用智能在某些方面会不如正常的成年人。它们会像学者一样,在涉及复杂的记忆数据库、模式识别、数学处理等方面超越我们。我把这些假设的通用智能称为“学者系统”,因为它们相对于正常人类而言有各种缺陷。

顺便说一句,这对于理解涉及超智能系统的辩论具有重要意义。根据定义,超智能是一种假设的机器,它在各个方面都超越我们:科学推理、社交技能等等。尼克·博斯特罗姆、比尔·盖茨、已故的斯蒂芬·霍金和许多其他人强调,这种系统会带来危险,因为它们很难控制。如果超智能人工智能超越我们,为什么相信它会坚持我们的道德价值观?它可能会制定自己的目标,或者以反常的字面方式解释我们的目标,结果对我们有害。这个问题被称为“控制问题”。

经过反思,学者系统也存在控制问题,即使它们不是超智能,而且它们在某些领域(例如,道德判断)表现出缺陷的事实,可能会使它们比超智能系统危险得多。

因此,我担心盖茨和其他人提出的问题实际上可能会更早出现,在超智能发展之前。

尽管如此,你可能仍然希望我为人类水平的AGI设定基准。这很棘手,但以下是一些为基准设定工作提供信息的一些因素。首先,加速AGI创建的一件事是,如果新皮层的区域可能相当均匀,那么新皮层的不同部分都遵循相同的算法。因此,如果我们发现一个小区域运行的精确算法,我们就会对如何构建人工新皮层有很大了解。

现在,这里有一些可能会阻碍它的事情,这与当前人工智能研究中对深度学习系统的重视有关。正如我的论文导师,著名的AI怀疑论者杰里·福多尔喜欢问的那样:认知真的是一种模式识别吗?今天的深度学习系统是复杂的关联引擎,它们输入大量的海量数据,并随着时间的推移,开发出以令人印象深刻的精度识别模式的算法。例如,考虑面部识别系统。我们会在深度学习系统中看到类似的令人印象深刻的壮举吗?也就是说,认知只是一种模式识别吗?我对此表示怀疑。

那么,如果我有这种怀疑,我为什么要说“几个”呢?首先,我比福多尔乐观得多。因为机器学习涉及各种超越单纯深度学习资源的编程技术。随着认知科学家发现大脑不同区域计算的神经算法,我们可以将这些特征逆向工程到人工智能中。

其次,虽然发现神经算法是一项复杂而漫长的研究工作,但我们不必等待完全理解大脑的每个部分。同样,我不会期望合成通用智能与我们非常相似。正如Alpha Go通过令人惊讶且不像人类的算法技术击败了世界围棋冠军一样,未来的合成通用智能也将以我们不熟悉的方式完成许多认知和感知任务。这就是为什么我不太喜欢“AGI”这个词——这个词经常暗示合成通用智能计算的算法类型与大脑使用的算法相同,并且它的行为方式与我们非常相似。相反,它们可能是我所说的“学者系统”。

霍根:在《人工的你》中,你思考了超智能外星人的可能性。你内心深处认为它们存在吗

施耐德:如果让我猜测,微生物生命会很丰富,那里也会存在高度复杂的生命,甚至是技术先进的文明。天体生物学家声称,原则上,那里有许多适合居住的系外行星。地球似乎并不是那么特别,所以生命应该在整个银河系中涌现。事实上,由于地球是一个相对年轻的行星,应该有许多行星的文明比我们的文明更古老。

想想这一切意味着什么。可能存在一些文明,它们已经或将要创造自己的人工智能,并增强他们的大脑和身体。在《人工的你》中,我认为宇宙中最伟大的智能可能是合成的,它们是从曾经像我们一样的生物文明发展而来的。

因此,我提出的关于激进增强是否与一个人意识和自我的延续相兼容的问题,与关于整个宇宙中智能生命进化的讨论息息相关。这既令人清醒又令人惊奇!

延伸阅读:

我们需要脑植入物来跟上机器人的步伐吗?

奇点与神经代码

整合信息理论可以解释意识吗?

人工智能如何报道人工智能会议?

另请参阅与斯科特·阿伦森大卫·艾伯特大卫·查尔莫斯诺姆·乔姆斯基大卫·多伊奇乔治·埃利斯马塞洛·格莱泽罗宾·汉森里克·希德尼克·赫伯特吉姆·霍尔特萨宾·霍森菲尔德希拉·贾萨诺夫斯图尔特·考夫曼莱斯利·基恩克里斯托夫·科赫加勒特·利西克里斯蒂安·利斯特蒂姆·莫德林詹姆斯·麦克莱伦普里扬瓦达·纳塔拉詹娜奥米·奥雷斯克斯马丁·里斯卡洛·罗韦利克里斯·塞尔奇鲁珀特·谢尔德雷克彼得·肖尔李·斯莫林谢尔登·所罗门阿米亚·斯里尼瓦桑保罗·斯坦哈特菲利普·特特洛克泰勒·沃尔克史蒂文·温伯格爱德华·威滕彼得·沃伊特斯蒂芬·沃尔弗拉姆以利沙·尤德科夫斯基卡尔·齐默的问答。

另请参阅我在我的免费在线书籍《心身问题》中对神经科学家克里斯托夫·科赫的简介

© . All rights reserved.