性别可以被计算吗?

使用算法基于图像、视频或音频猜测一个人的性别,引发了重大的社会和伦理问题,这些问题尚未得到充分探讨

以下文章经 The Conversation 许可转载,The Conversation是一个报道最新研究的在线出版物。

想象一下走在街上,看到广告屏幕根据你的走路方式、说话方式,甚至胸部形状来改变内容。这些屏幕依赖隐藏的摄像头、麦克风和电脑来猜测你是男性还是女性。这听起来可能很未来主义,但挪威一家披萨店的顾客发现这正是正在发生的事情:女性看到沙拉广告,男性看到肉类选择广告。当数字广告牌运行的软件 崩溃并显示其底层代码时,泄露了秘密。使用这项技术的动机可能是为了提高广告质量或用户体验。然而,许多顾客对此感到非常惊讶。


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业 订阅。通过购买订阅,您正在帮助确保未来能继续讲述关于塑造我们今天世界的发现和想法的具有影响力的故事。


这种情况不仅仅是令人毛骨悚然和侵犯隐私。更糟糕的是:在 自动性别识别方面的努力——使用算法基于图像、视频或音频猜测一个人的性别——引发了重大的社会和伦理问题,这些问题尚未得到充分探讨。目前关于自动性别识别技术的大部分研究反而侧重于技术细节。

我们最近的研究发现,性别认同多元化的人群,包括那些认同为跨性别者或非二元性别者的人,尤其担心这些系统可能会错误地将他们归类。那些以不同于刻板印象中的男性和女性规范来表达自己性别的人,已经因为被错误归类或误解遭受歧视和伤害。理想情况下,技术设计者应该开发系统来减少这些问题的发生,而不是增加。

使用算法对人群进行分类

随着数字技术变得越来越强大和复杂,其设计者正试图使用它们来识别和分类复杂的人类特征,例如性取向、性别和种族。其理念是,通过对大量用户数据进行充分训练,算法可以学会分析人的外貌和行为——甚至有一天可以像其他人一样,甚至比其他人更好地描述人的特征。

性别对人们来说是一个难以处理的话题。这是一个复杂的概念,既是文化构建,也是个人身份的核心方面,都发挥着重要作用。研究人员、学者和活动家们正在越来越多地揭示性别的多样性、流动性和多方面性。在这个过程中,他们发现忽视这种多样性可能会导致有害的经历和社会不公。例如,根据2016年全国跨性别者调查,47%的跨性别参与者表示,他们因性别认同而在工作场所遭受某种形式的歧视。超过一半因性别认同而遭受骚扰、袭击或被驱逐的跨性别者曾试图自杀。

许多人都有过或多或少感到惊讶、困惑甚至愤怒,因为他们发现自己被误认为是另一种性别的人。当这种情况发生在跨性别者身上时——据估计,0.6%的美国人,即140万人是跨性别者——这可能会导致相当大的压力和焦虑

自动性别识别的影响

在我们最近的研究中,我们采访了13位跨性别者和性别不符者,了解他们对自动性别识别技术的总体印象。我们还要求他们描述在未来可能遇到该技术的假想情景中的反应。所有13位参与者都对这项技术感到担忧,并怀疑它是否能给他们的社区带来任何好处。

他们特别担心被该技术错误识别性别的前景;在他们的经验中,性别在很大程度上是一种内在的、主观的特征,而不是必然或完全外在表达的东西。因此,无论是人类还是算法都无法通过面部、身体或声音等身体特征来准确读取性别。

他们描述了被算法错误识别性别可能会比被人类错误识别性别感觉更糟糕。技术通常被认为或被认为是客观和公正的,因此被算法错误分类会加剧人们对跨性别身份不真实的误解。一位参与者描述说,如果“由不知多少人开发的价值百万美元的软件”决定他们不是他们自己认为的那个人,他们会感到受伤。

隐私和透明度

我们采访的人们和公众一样普遍担忧,即自动化摄像头可能在未经他们同意或知情的情况下被用于监视;多年来,研究人员和活动家们已经对传感器和摄像头遍布的世界中日益增长的隐私威胁拉响了警报

但我们的参与者描述了这些技术的影响可能对跨性别者更大。例如,他们可能会因为外貌或行为与底层算法的预期不同而被挑出来,被视为不寻常。一些参与者甚至担心,系统可能会错误地判断他们试图成为另一个人并欺骗系统。

他们的担忧也扩展到顺性别者,他们可能看起来或行为方式与大多数人不同,例如不同种族的人、算法认为的雌雄同体的人以及面部结构独特的人。这种情况已经发生在少数种族和族裔背景的人身上,他们经常被面部识别技术错误识别。例如,某些摄像头中现有的面部识别技术无法正确检测亚洲用户的面部,并向他们发送消息,要求他们停止眨眼或睁开眼睛

我们的受访者想更多地了解自动性别识别系统是如何工作的以及它们的用途。他们不想了解深入的技术细节,但确实想确保这项技术不会损害他们的隐私或身份。他们还希望在这些系统的设计和开发的早期阶段,在部署之前,有更多的跨性别者参与进来。

创建包容性的自动化系统

我们的结果表明,自动分类技术的设计者如何通过对人类特征的简单性和可预测性做出假设,从而在无意中造成伤害。我们的研究增加了一系列不断增长的研究成果,这些成果试图更周全地将性别纳入技术之中。

历史上,少数群体一直被排除在关于大规模技术部署的对话之外,包括少数族裔和残疾人士。然而,科学家和设计师都知道,在设计过程中纳入少数群体的意见可以带来惠及所有人的技术创新。我们提倡一种更具性别包容性和以人为本的自动化方法,其中应包含多元化的视角。

随着数字技术的发展和成熟,它们可以带来令人印象深刻的创新。但当人类指导这项工作时,他们应该避免放大消极和局限性的人类偏见和成见。在自动性别识别的案例中,我们不一定得出结论认为应该放弃这些算法。相反,这些系统的设计者应该包容并敏感地对待人类身份的多样性和复杂性。

本文最初发表于 The Conversation。阅读 原文

© . All rights reserved.