这款人工智能工具能预测你的死亡吗?也许可以,但请别惊慌

在机器学习蓬勃发展之际,模型开发者们已从大数据宝库中构建出一个通用的数字预言机

Artist's illustration of a pair of hands hovering above a crystal ball

这听起来可能像幻想或虚构,但人们一直都在预测未来。现实世界中的算命先生——我们称他们为精算师和气象学家——多年来已经成功地使用了计算机模型。而今天机器学习的加速发展正在迅速升级他们的数字水晶球。现在,根据《自然计算科学》杂志最近的一项研究,一种将人类生活视为语言的新型人工智能系统可能能够胜任地猜测你是否会在特定时期内死亡,以及其他生活细节。

该研究团队开发了一个名为 life2vec 的机器学习模型,该模型可以对人们生活的细节和过程做出一般性预测,例如与死亡、国际迁移和性格特征相关的预测。该模型从数百万丹麦居民的数据中提取信息,包括出生日期、性别、就业、地点和该国全民医疗保健系统的使用情况等详细信息。研究指标发现,新模型在预测研究人群四年内的死亡率方面准确率超过 78%,并且明显优于其他预测方法,例如精算表和各种机器学习工具。在一项单独的测试中,life2vec 还预测了在同一时期内人们是否会搬出丹麦,准确率约为 73%(根据一项研究指标)。研究人员进一步使用 life2vec 预测人们对性格问卷的自我报告回复,他们发现有希望的早期迹象表明该模型可以将性格特征与生活事件联系起来。

普林斯顿大学社会学教授马修·萨尔加尼克说,这项研究展示了一种预测和分析人们生活轨迹的令人兴奋的新方法,他研究计算社会科学,并且是《比特接比特:数字时代的社会研究》一书的作者。life2vec 的开发者“使用了一种非常不同的风格,据我所知,以前没有人使用过,”他说。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过 订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您正在帮助确保关于塑造我们当今世界的发现和想法的有影响力的故事的未来。


这个新工具以一种奇特的方式工作。有很多不同类型的机器学习模型,它们具有不同的底层架构,并且被认为适用于不同的目的。例如,有些模型可以帮助机器人解释摄像头输入,而另一些模型可以帮助计算机吐出图像。Life2vec 基于与 OpenAI 的 ChatGPT 和 Google 的 Bard 等流行的 AI 聊天机器人相同的架构。具体来说,新的预测模型最接近 BERT,BERT 是 Google 于 2018 年推出的语言模型。“我们采用了一种为语言建模开发的原理……并将其应用于一些关于人类的非常、非常、非常有趣的序列数据,”研究作者、丹麦技术大学网络和复杂性科学教授苏恩·莱曼说。

给定一系列信息,通常以书面文本的形式,这些模型通过将输入翻译成数学向量并像一个涡轮增压的自动完成过程来做出预测,该过程根据学习到的模式填写下一部分。

为了让语言处理工具对人们的未来做出预测,莱曼和他的同事将个人的数据处理成独特的时间线,这些时间线由诸如薪资变动和住院等事件组成——特定事件表示为计算机可以识别的数字“令牌”。因为他们的训练数据捕捉了关于人们的如此多的信息,并且他们的模型架构如此灵活,研究人员认为 life2vec 可以提供一个基础,可以很容易地对其进行调整和微调,以提供关于人类生活的许多尚未探索的方面的预测。

莱曼说,医疗专业人员已经联系他,要求帮助开发与健康相关的 life2vec 版本——包括一种可以帮助阐明人群层面罕见疾病风险因素的版本。他希望使用该工具来检测以前未知的世界与人类生活结果之间的关系,可能探索诸如“你的关系如何影响你的生活质量?”以及“决定薪资或早逝的最重要因素是什么?”等问题。该工具还可以梳理出隐藏的社会偏见,例如一个人的职业发展与其年龄或原籍国之间意想不到的联系。

但就目前而言,仍存在一些严重的局限性。莱曼指出,该模型的数据特定于丹麦。并且所使用的信息中仍然存在许多空白。尽管信息广泛,但它并没有捕捉到与一个人的死亡风险或生活轨迹相关的所有内容,莱曼指出,一些人群不太可能有广泛的健康和就业记录。

最大的警告之一是,该研究的准确性衡量标准不一定可靠。多位消息人士称,它们更多的是概念验证,而不是证明 life2vec 可以正确预测给定的人是否会在给定的时间段内死亡。

杜克-马戈利斯健康政策中心数字健康研究主任克里斯蒂娜·西尔科克斯在查看该研究的统计分析后表示,她不会对 life2vec 的个人四年死亡率预测抱有太大的信心。“我不会辞掉工作然后去巴哈马群岛,”她说,并指出这并不是对莱曼和他的合著者的方法的批评,而更多的是对生活结果预测领域的内在局限性。

萨尔加尼克说,很难知道评估像这样的工具的准确性的最佳方法,因为目前还没有其他完全可比的东西。个人死亡率尤其难以评估,因为虽然每个人最终都会死亡,但大多数年轻人和中年人每年都能幸存下来。死亡在研究中涵盖的 65 岁以下年龄组中是一个相对罕见的事件。如果你只是猜测丹麦(研究人群)年龄在 35 岁到 65 岁之间的一组人每年都能幸存下来,那么你已经得到了一个相当准确的死亡预测。根据该研究,life2vec 的表现确实明显优于那种无效的猜测,但萨尔加尼克说,很难确定它相对于现实的准确程度。

加州大学圣巴巴拉分校统计学和应用概率教授迈克尔·卢德科夫斯基对此表示赞同。“我很难解释这些结果的真正含义,”他说。他的大部分工作都在精算科学或风险预测领域,他说 life2vec 的结果“用一种与精算师的说法不同的语言表达”。例如,卢德科夫斯基说,精算预测分配的是风险评分,而不是生死二元预测——而且这些风险评分以 life2vec 没有的方式考虑了不确定性。

西尔科克斯指出,还存在重大的伦理考量。如果误用像这样的工具,显然可能会造成伤害。算法偏见是一个真实存在的风险,“人工智能工具需要针对它们试图解决的问题进行非常具体的测试,”她说。对于 life2vec 的每一种新用途进行彻底评估,并不断监测数据漂移等常见缺陷至关重要——在训练数据中反映的过去条件不再适用(例如,在重要的医学进步之后)。

研究人员承认他们已经涉足了令人担忧的领域。他们的研究强调了丹麦拥有强有力的隐私保护和反歧视法律这一事实。获得 life2vec 访问权限的学者、政府机构和其他研究人员将必须确保数据不会泄露或用于非科学目的。作者在论文中写道,“严格禁止”使用 life2vec “进行自动化的个人决策、个人资料分析或访问个人层面数据。“我之所以对此感到放心,部分原因是我信任丹麦政府,”莱曼说。他“不会放心”在美国开发这样的模型,因为美国没有联邦数据隐私法。

然而,莱曼补充说,同样具有侵入性和强大的机器学习工具可能已经存在。其中一些工具甚至接近菲利普·狄克 1956 年的中篇小说《少数派报告》(以及 2002 年根据其改编的轰动一时的科幻电影)中提出的反乌托邦概念。在美国,许多法院使用算法工具做出量刑决定。执法机构使用预测性警务软件来决定如何分配警官和资源。甚至美国国税局也依靠机器学习来发布审计通知。在所有这些例子中,偏见不准确一直是反复出现的问题

在私人领域,科技公司使用先进的算法预测和他们收集的关于用户的海量数据来预测消费者行为并最大化参与时间。但政府和企业工具的确切细节都处于保密状态。

莱曼说,通过创建一个学术研究人员可以访问的强大的 AI 预测工具,他希望在已经开始的预测时代促进透明度和理解。“我们可以开始谈论它,我们可以开始决定我们想要如何使用它:什么是可能的,什么是正确的,以及我们应该放任不管的,”他说。

“我希望,”莱曼补充说,“这可以成为推动我们走向乌托邦并远离反乌托邦的讨论的一部分。”

© . All rights reserved.