警察面部识别技术无法区分黑人

人工智能驱动的面部识别将导致种族歧视的增加

Shadows of 3 people walking under a surveillance camera

想象一下,因为偷窃手表而被邻居和家人面前戴上手铐。在监狱里待了几个小时后,你得知州警察在商店录像中使用的面部识别软件将你识别为小偷。但你并没有偷任何东西;该软件将警察指向了错误的人。     

不幸的是,这不是假设。这发生在三年前的罗伯特·威廉姆斯身上,他是一位底特律郊区的黑人父亲。可悲的是,威廉姆斯的故事并非个例。在最近一起身份误认案件中,面部识别技术导致一名佐治亚州黑人因路易斯安那州的钱包盗窃案而被错误逮捕

我们的研究支持了人们对人脸识别技术(FRT)可能加剧警务中种族不平等的担忧。我们发现,使用自动化面部识别技术的执法机构不成比例地逮捕黑人。我们认为这源于多种因素,包括算法训练数据集中缺少黑人面孔,认为这些程序是绝对可靠的,以及警官自身偏见往往会放大这些问题。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和思想的具有影响力的故事的未来。


虽然任何程度的改进都无法消除种族歧视的可能性,但我们理解自动化耗时的人工面部匹配过程的价值。我们也认识到该技术在提高公共安全方面的潜力。然而,考虑到这项技术可能造成的危害,需要实施可执行的保障措施,以防止违宪的过度行为。

FRT 是一种人工智能驱动的技术,旨在确认图像中人物的身份。执法部门使用的算法通常由亚马逊、Clearview AI 和微软等公司开发,这些公司为不同的环境构建系统。尽管深度学习技术取得了巨大的进步,但联邦测试表明,大多数面部识别算法在识别白人男性以外的人方面表现不佳。     

民权倡导者警告说,这项技术难以区分较深肤色的人脸,这可能会导致更多的种族歧视和更多的错误逮捕。此外,不准确的识别会增加漏捕的可能性。

尽管如此,一些政府领导人,包括新奥尔良市长 LaToya Cantrell,都在吹捧这项技术帮助破案的能力。面对全国各地警察部门日益严重的 staffing 短缺问题,一些人拥护 FRT 作为急需的警力覆盖倍增器,帮助机构用更少的警员做更多的事情。这种观点可能解释了为什么超过四分之一的州和地方警察部门以及几乎一半的联邦执法机构经常访问面部识别系统,尽管它们存在缺陷。

这种广泛采用对我们免受非法搜查和扣押的宪法权利构成了严重威胁。

认识到对我们公民自由的威胁,旧金山波士顿等城市禁止或限制政府使用这项技术。在联邦层面,拜登政府在 2022 年发布了“人工智能权利法案蓝图”。虽然旨在将保护我们公民权利的做法纳入人工智能技术的设计和使用中,但该蓝图的原则不具有约束力。此外,今年早些时候,国会民主党人重新提出了《面部识别和生物识别技术暂停法案》。该法案将暂停执法部门使用 FRT,直到政策制定者能够制定法规和标准,以平衡宪法担忧和公共安全。

拟议的人工智能权利法案和暂停法案是保护公民免受人工智能和 FRT 侵害的必要第一步。然而,这两项努力都不够完善。该蓝图不涵盖执法部门对人工智能的使用,暂停法案仅限制联邦机构而非州和地方政府使用自动化面部识别技术。

然而,随着关于面部识别技术在公共安全中的作用的辩论愈演愈烈,我们的研究和其他研究表明,即使软件没有错误,除非对非联邦用途也采取保障措施,否则这项技术也可能导致不公平的执法行为。  

首先,许多黑人社区警力资源的集中已经导致黑人居民与警察之间不成比例的接触。在这种背景下,由 FRT 辅助警察服务的社区更容易受到执法差异的影响,因为算法辅助决策的可靠性受到警务工作的需求和时间限制的威胁,再加上对人工智能近乎盲目的信任,最大限度地减少了用户在决策中的自由裁量权。 

警察通常以三种方式使用这项技术:现场查询以识别被拦截或被捕人员,搜索视频录像或实时扫描经过监控摄像头的人员。警察上传图像,在几秒钟内,软件将图像与大量照片进行比较,以生成潜在嫌疑人的阵容。

执法决定最终由警官做出。然而,人们常常认为人工智能是绝对可靠的,并且不会质疑结果。最重要的是,使用自动化工具比用肉眼进行比较容易得多。  

人工智能驱动的执法辅助工具也使警察与公民之间产生心理距离。这种从决策过程中脱离出来的情况使警官能够将自己与自己的行为分开。用户有时也会有选择性地遵循计算机生成的指导,偏爱与刻板印象相符的建议,包括那些关于黑人犯罪的刻板印象。   

没有确凿的证据表明 FRT 可以改善犯罪控制。尽管如此,官员们似乎愿意容忍这些种族偏见,因为城市都在努力遏制犯罪。 这使人们容易受到权利侵犯。

盲目接受这项技术的时代已经过去。软件公司和执法部门必须立即采取措施,减少这项技术的危害。

对于公司而言,创建可靠的面部识别软件始于设计师之间均衡的代表性。在美国,大多数软件开发人员是白人男性研究表明,该软件在识别程序员种族成员方面要好得多。专家将这些发现主要归因于工程师无意识地将“本族偏见”传递到算法中。 

本族偏见之所以会悄然渗入,是因为设计师无意识地专注于他们熟悉的面部特征。由此产生的算法主要在其种族的人身上进行测试。因此,许多美国制造的算法通过查看更多的白人面孔来“学习”,这无助于它们识别其他种族的人。

使用多样化的训练集可以帮助减少 FRT 性能中的偏差。算法通过使用一组照片进行训练来学习比较图像。训练图像中白人男性的不成比例代表性会产生有偏差的算法,因为黑人在警方常用的罪犯照片数据库和其他图像存储库中被过度代表。因此,人工智能更可能将黑人面孔标记为犯罪分子,从而导致无辜黑人成为目标并被逮捕。

我们认为,制造这些产品的公司需要考虑员工和图像的多样性。然而,这并不能消除执法部门的责任。如果我们想防止这项技术加剧种族差距并导致权利侵犯,警方必须严格审查其方法。

对于警察领导来说,必须对匹配应用统一的相似度评分最低标准。在面部识别软件生成潜在嫌疑人阵容后,它会根据算法认为图像的相似程度对候选人进行排名。目前,各部门通常自行决定其相似度评分标准,一些专家认为这会增加错误逮捕和漏捕的可能性。

执法部门采用 FRT 是不可避免的,我们看到了它的价值。但是,如果执法结果中已经存在种族差异,那么在没有充分的监管和透明度的情况下,这项技术可能会加剧交通拦截和逮捕等事件中出现的不平等现象。

从根本上说,警官需要接受更多关于 FRT 的缺陷、人为偏见和历史歧视的培训。除了指导使用这项技术的警官外,警察和检察官在寻求逮捕令时也应披露他们使用了自动化面部识别技术。

尽管 FRT 并非万无一失,但遵循这些指导方针将有助于防止导致不必要逮捕的使用。

这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。

© . All rights reserved.