编者按(2020年11月9日):最近选举中通过的投票措施包括加强现有针对波特兰市警察和公职人员使用面部识别技术的禁令,以及其他技术监管措施。这篇社论提供了更多关于面部识别问题以及美国各地司法管辖区试图控制其使用的原因的信息。
从新罕布什尔州到旧金山,各州和地方当局已经开始禁止使用面部识别技术。他们的怀疑是有充分理由的:这些算法会犯很多错误,尤其是在识别女性和有色人种方面。即使这项技术变得更加准确,面部识别也将引发对隐私的侵犯,使匿名变得不可能。不幸的是,地方政府对其使用的禁令几乎未能阻止从初创企业到大型公司的企业采用。这种不断扩大的影响范围正是这项技术需要联邦法规的原因——而且现在就需要。
自动化面部识别程序确实具有优势,例如它们能够将一个人的独特外貌转化为生物特征 ID,从而让手机用户只需看一眼即可解锁设备,并让机场安检快速确认旅客的身份。为了训练此类系统,研究人员向机器学习算法输入各种照片,该算法学习最能将图像与身份匹配的特征。他们积累的数据越多,这些程序就越可靠。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保未来能够继续报道关于发现和塑造我们当今世界的想法的具有影响力的故事。
然而,算法部署得往往为时过早。例如,在伦敦,警方已开始使用人工智能系统扫描监控录像,试图找出路过的通缉犯——尽管一项独立审查发现,该系统仅在 19% 的情况下准确标记嫌疑人。不准确的系统可能会错误地指控无辜公民为不法之徒,将守法公民标记为跟踪、骚扰或逮捕对象。这成为一个公民权利问题,因为算法更有可能错误识别有色人种。当美国国家标准与技术研究院审查了近 200 个面部识别系统时,发现其中大多数系统错误识别黑人和东亚人图像的频率比白人高 10 到 100 倍。当程序在多张照片中搜索特定面孔时,当被追踪对象是黑人女性时,它们更有可能选择不正确的图像。
一些公司正试图通过向系统中输入更多非白人和非男性面孔来改进其系统——但他们并非总是以合乎道德的方式进行。例如,谷歌在亚特兰大的承包商被指控在该公司寻求人脸的过程中剥削无家可归的黑人,以几美元的价格购买他们的图像,而初创公司 Clearview AI 违反社交媒体网络的协议,在未经用户同意的情况下收集用户图像。这些故事表明,一些公司将解决这个问题视为事后诸葛亮,而不是负责任地解决它。
即使有人发布了改进后的面部识别软件,能够在所有人口群体中实现高精度,这项技术仍然会是一种威胁。由于算法扫描视频片段的速度比人类快得多,面部识别可以对人群进行持续监控。这种情况已经在中国发生,专制政府正在使用这项技术来压制其维吾尔族少数民族,并精准定位个人的行动轨迹。这些系统很容易被用来将每个公民都视为罪犯,从而破坏个人隐私,限制自由表达,并造成心理损害。
在美国这样的民主国家,政府需要保护所有公民免受此类措施的侵害。但现有的技术禁令造成了监管上的不一致:一些地区对面部识别没有任何限制,另一些地区禁止警察部门应用它,还有一些地区则禁止任何政府机构或雇员使用它。
显然需要联邦法规。法规应要求数百个现有的面部识别程序(其中许多由私营公司创建)接受政府工作组的独立审查。这项技术必须达到高精度的标准,并证明在所有人口群体中都具有公平性,即使它符合这些标准,也应由人类而非算法来检查程序的输出,然后再根据其建议采取行动。面部识别还必须纳入更广泛的隐私法规中,以限制对普通民众的监控——因为其他基于步态甚至心跳模式来标记人员的识别工具已经在开发中。
美国人一直都极力维护隐私权。必须对威胁到这一点的技术加以控制。