旨在消除贫困的算法实际上可能会使情况更糟

旨在减轻贫困的算法如何反而使其长期存在

Andrea Ucini

2006年接近尾声时,时任印第安纳州州长米奇·丹尼尔斯宣布了一项计划,旨在为该州“最贫困的人民提供更好的机会,摆脱福利,走向工作和尊严的世界”。他与包括IBM在内的多家公司组成的联合体签署了一份价值11.6亿美元的合同,该合同将为印第安纳州的福利计划实现资格审查流程的自动化和私有化。

公众无需前往县政府办公室填写援助申请,而是被鼓励通过新的在线系统进行申请。约1500名州雇员“转型”到区域呼叫中心的私人职位。曾经负责地方福利办公室家庭档案的个案工作者,现在要对工作流程管理系统中队列中出现的一系列任务做出响应。案件可能来自州内的任何地方;每个电话都会转给下一个可用的工作人员。政府坚称,转向电子通信将改善有需要的、年老的和残疾人士获得服务的机会,同时还能为纳税人节省资金。

从县济贫院的账簿到优生记录办公室的照片幻灯片,美国长期以来一直在收集和分析关于贫困和工人阶级家庭的大量信息。与丹尼尔斯一样,今天的政治家、政策制定者和项目管理者也经常寄希望于自动化来改造社会援助。这种趋势有时被称为贫困分析,即通过数据收集、共享和分析对穷人进行数字化监管。它采取多种形式,从使用统计模型预测儿童虐待到使用高清卫星图像绘制难民的流动路线。当代贫困分析的复兴正达到顶峰,人们对大数据和人工智能在改善福利、治安、刑事判决、无家可归者服务等方面的力量进行了令人兴奋的评估。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


这些项目似乎秉持的核心信念是,贫困主要是一个系统工程问题。信息只是没有到达它需要去的地方,这意味着资源的使用效率低下,甚至可能适得其反。自动化资格审查系统、算法决策和预测分析的兴起,通常被誉为公共管理领域的一场革命。但这可能只是过去以伪科学为后盾的经济配给制度的数字化回归。

穷人的科学

1884年,约瑟芬·肖·洛厄尔出版了《公共救济与私人慈善》,敦促政府停止向正在与1873-1879年经济萧条的长期影响作斗争的家庭提供贫困救济。洛厄尔是纽约市慈善组织协会的创始人之一,她写道,即使在没有事先道德调查的情况下提供适度的支持,也会制造贫困而不是缓解贫困,助长懒惰和恶习。她承诺“私人慈善可以而且将会为每一个应该避免求助于公共救济来源的案例提供帮助。”但是,这个国家富有的慈善家如何接管政府保护公民免受经济冲击的责任呢?她的解决方案很简单:让慈善事业更加科学化。

洛厄尔和其他所谓的科学慈善事业的支持者认为,循证的、数据驱动的方法可以将值得帮助的穷人与不值得帮助的穷人区分开来,从而使社会援助更具成本效益和效率。这场运动率先采用了后来被称为个案工作的方法,即警察仔细审查寻求救济者的生活各个方面,并通过采访邻居、店主、医生和神职人员来核实他们的说法。这滋生了一种预测和侧写、调查和道德分类的文化,释放了关于贫困和工人阶级家庭的大量数据,这些数据至今仍在流动。

当代贫困分析的支持者认为,如果我们使用这些数据来创建关于欺诈和浪费的“可操作的情报”,公共服务将会得到改善。例如,丹尼尔斯承诺,在合同的10年期间,印第安纳州将节省5亿美元的行政管理成本,并通过识别欺诈和不符合资格的情况再节省5亿美元。

实际上,私人呼叫中心系统切断了个案工作者与他们服务对象之间的关系,使得难以确保家庭获得他们有权获得的所有福利。对于低收入家庭来说,优先考虑在线申请而不是面对面办理程序是一个问题,因为他们中几乎有一半人无法上网。该州未能将数十年的纸质文件数字化,要求受助人重新提交所有文件。僵化的自动化系统无法区分诚实的错误、官僚主义的错误和申请人试图实施欺诈的行为。每一个小故障,无论是忘记签名还是软件错误,都被解释为潜在的犯罪。

印第安纳州自动化资格审查实验的结果是,三年内拒绝了一百万份福利申请,比前三年增加了54%。在愤怒的公民、两党的立法者和负担过重的当地政府的压力下,丹尼尔斯在2009年取消了与IBM的合同,导致了一场代价高昂、由纳税人资助的法律战,这场法律战持续了八年。

监视中的偏见

贫困分析不仅仅是由节省成本和提高效率的愿望驱动的。它的支持者还有一个值得称赞的目标,那就是消除偏见。毕竟,社会服务项目中阴险的种族歧视有着深刻的历史根源。

在儿童福利系统中,问题传统上不是将有色人种排除在外;而是他们不成比例地被纳入那些增加国家对其家庭审查的项目中。根据国家少年和家庭法院法官委员会的数据,在47个州,非裔美国儿童被带离家庭的比率超过了他们在总人口中的比例。宾夕法尼亚州阿勒格尼县的情况确实如此:2016年,那里寄养儿童中有38%是非裔美国人,尽管他们仅占该县青少年的不到19%。

2016年8月,阿勒格尼县人类服务部 (DHS) 启动了一个统计建模工具,他们认为该工具可以预测哪些儿童未来最有可能遭受虐待或忽视。阿勒格尼家庭筛查工具 (AFST) 由奥克兰理工大学的经济学家瑞玛·瓦伊蒂亚纳坦领导的国际团队设计,团队成员包括南加州大学儿童数据网络主任艾米丽·普特南-霍恩斯坦。它利用县数据仓库中收集的信息,该仓库定期从数十个公共项目(包括监狱、缓刑、县精神卫生服务以及收入维持和公立学校办公室)中提取数据。通过挖掘二十年的数据,DHS希望AFST可以帮助主观的人工筛查员做出更好的建议,以决定哪些家庭应被转介进行儿童保护调查。

19世纪的科学慈善改革者也认为,更客观的决策可以改变公共项目,他们认为公共项目被赞助、政治机器和民族狭隘主义所腐败。但他们通过狭隘的视角来看待偏见:歧视是偶发性的和故意的,是由自身利益驱动的。这场运动未能认识到的是,它是如何在所谓的客观、科学的工具和实践中构建系统性、结构性偏见的。

如果说科学慈善事业DNA的一个分支是紧缩,那么另一个分支就是白人至上主义。科学慈善事业在标榜自己是循证的和价值中立的同时,拒绝向新解放的非裔美国人提供援助,并支持移民限制。它还投入了巨大的精力来保护白人精英免受它认为潜伏在种族内部的威胁:低智力、犯罪和不受约束的性行为。它的核心是一场优生运动:试图通过减缓贫困家庭的增长来减缓贫困的增长。

毫无疑问,AFST等工具的出现源于减轻这种偏见的愿望。但人为偏见也是预测风险模型的一个内置特征。AFST主要依赖于仅针对那些寻求公共服务以获得家庭支持的人收集的数据。较富裕的家庭可能会聘请保姆来帮助照顾孩子,或者与医生合作以戒除毒瘾。但由于他们自掏腰包或使用私人保险付款,因此他们的数据不会收集在仓库中。因此,AFST可能会遗漏专业中产阶级家庭中的虐待或忽视行为。对穷人的过度监视以系统性的方式塑造了模型的预测,将使用公共福利解释为对儿童的风险。简而言之,该模型将贫困育儿与不良育儿混淆了。

由于阿勒格尼县的儿童死亡和接近死亡事件的发生率幸运地不足以产生可靠建模所需的数据量,因此瓦伊蒂亚纳坦团队使用了一个相关的变量来代替儿童虐待。经过一些实验,研究人员决定使用儿童安置——当对儿童提出的报告被“筛选通过”进行调查,并导致该儿童在两年内被安置在寄养家庭时——作为儿童伤害的替代指标。因此,该模型正在预测的结果是机构和法律系统做出的将儿童从家中带走的决定,而不是实际发生的虐待事件。尽管这是一个出于必要而非恶意而做出的设计选择,但儿童福祉天生是主观的,这使其成为预测建模的不良候选对象。

此外,虽然AFST可能会发现接纳筛查中的偏见模式,但这并不是种族失调现象进入系统的主要途径。事实上,该县自身的研究表明,大多数种族偏见是通过转介而不是筛查进入系统的。社区报告非裔美国人和混血家庭的儿童虐待和忽视事件的频率分别是白人家庭的三倍和四倍。一旦儿童被转介,筛查员的自由裁量权就无关紧要了:2010年的一项研究表明,接纳工作人员筛选通过了69%涉及非裔美国人和混血儿童的案件,以及65%涉及白人儿童的案件。具有讽刺意味的是,削弱筛查员的自由裁量权可能会加剧种族不公正,因为它消除了临床判断,而临床判断本可以在社区偏见可以被推翻时发挥作用。

更危险的是,人们倾向于相信技术比我们自己的决策更客观。但经济学家和数据科学家与呼叫筛查员一样,也很可能对贫穷的白人家庭和有色人种家庭持有错误的文化观念。当系统设计者将他们的假设编入这些工具时,他们将重大的政治选择隐藏在经过数学粉饰的技术中立性的外表之下。

建模正义

在公共服务部门工作的管理者和数据科学家通常都有一个基本先入为主的观念:贫困分析是一种分类系统,用于对如何使用有限的资源来解决巨大的需求做出艰难的抉择。但是,决定接受某些人将被允许获得他们的基本人权,而另一些人则不会被允许获得,这本身就是一个政治选择。贫困不是天灾;它是由结构性剥削和糟糕的政策造成的。

数据科学确实可以在解决深刻的不平等问题中发挥作用。算法决策的进步批评者建议关注透明度、问责制和以人为本的设计,以推动大数据走向社会正义。当然,任何用于在民主社会中做出决策的数字系统都应以这些价值观为基础。但贫困分析领域已将自身局限于最多只是逐步提高社会效益存疑的系统的准确性和公平性。我们首先需要重新思考基本原则。这意味着承认,在紧缩、结构性种族主义和贫困犯罪化的大背景下,不受约束的分析将加剧歧视并加剧经济苦难。

我们应该首先测试产生与其应预测的效果完全相同的效果的自我实现的模型。例如,如果害怕被AFST评为高风险导致父母避免使用公共服务,这可能会产生可能导致虐待和忽视的那种压力。我们还需要安装能够阻止具有负面或意外影响的系统的政策杠杆。这些系统收集的数据应该是安全的,但更重要的是,应该以非强迫的方式获取,而不会让家庭感到他们必须用一项基本人权——隐私、安全或家庭完整性——来换取另一项基本人权,例如食物或住所。

最后,对于那些因贫困分析而受到伤害的人,需要建立明确的补救机制。正如2018年世界经济论坛关于机器学习中歧视的白皮书指出的那样,那些设计和实施自动化决策系统的人有责任建立“及时纠正任何歧视性输出”的协议,并使其易于查找和使用。

除非我们改写我们讲述的虚假故事,否则贫困分析不会从根本上改变。尽管人们普遍认为贫困在美国是一种异常现象,但事实并非如此。根据社会学家马克·R·兰克和托马斯·赫施尔的研究,51%的美国人在20岁至64岁之间的某个时候会跌落到贫困线以下,近三分之二的人将获得诸如“贫困家庭临时援助”和医疗补助等经过经济状况调查的公共援助计划。因此,我们需要的不是设计精密的道德温度计,而是为我们所有人建立普遍的底线保障。这意味着充分资助公共计划,保障良好的工资和安全的工作条件,支持照料,促进健康,以及保护每个人的尊严和自决权。在我们做到这一点之前,我们不是在实现现代化的分类,而是在自动化不公正。

更多探索

自动化不平等:高科技工具如何剖析、监管和惩罚穷人。弗吉尼亚·尤班克斯。圣马丁出版社,2018年。

弗吉尼亚·尤班克斯是纽约州立大学奥尔巴尼分校政治学副教授。她的最新著作是《自动化不平等:高科技工具如何剖析、监管和惩罚穷人》(圣马丁出版社,2018年)。她住在纽约州特洛伊。

更多作者:弗吉尼亚·尤班克斯
大众科学 Magazine Vol 319 Issue 5本文最初以“自动化偏见”为标题发表于《大众科学》杂志第319卷第5期(),第68页
doi:10.1038/scientificamerican1118-68
© . All rights reserved.