6300亿词互联网分析显示“人”被解读为“男性”

性别偏见出现在我们思考最中性词语的方式中

Portrait of thinking man

当您阅读“人”、“人们”或“个体”等词语时,您会想到什么? 很可能您脑海中的形象是男性,而不是女性。 如果是这样,您并不孤单。 一项对超过五千亿词汇的大规模语言分析得出结论,我们给那些根据定义应该是性别中立的词语赋予了性别。

纽约大学的心理学家分析了来自近三十亿个网页的文本,并比较了表示人的词语(“个体”、“人们”等等)与表示男性的词语(“男性”、“他”)或女性的词语(“女性”、“她”)相关联的频率。 他们发现,与女性相关词语相比,男性相关词语与“人”的重叠频率更高。 根据这项发表在《科学进展》杂志4月1日的研究,从这个角度来看,文化概念中的人更多时候是男性而不是女性。

为了进行这项研究,研究人员转向了一个庞大的开源网页数据集,称为 Common Crawl,它从公司白皮书到互联网论坛等各种来源提取文本。 为了分析文本——总共超过 6300 亿个单词——研究人员使用了词嵌入,这是一种计算语言学技术,通过查找两个词语一起出现的频率来评估它们之间的相似程度。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。 通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


“您可以采用像‘人’这样的词语,并通过查看我们经常在‘人’这个词语周围使用的其他词语来理解我们所说的‘人’是什么意思,我们如何表示‘人’这个词语,”纽约大学的博士后研究员艾普瑞尔·贝利解释说,她进行了这项研究。“我们发现,表示人的词语和表示男性的词语之间的重叠比表示人的词语和表示女性的词语之间的重叠更多……这表明在人的概念中存在这种男性偏见。”

科学家们之前已经研究过语言中的性别偏见,例如女性与家庭生活联系更紧密,而男性与工作联系更紧密的观点。“但这是第一个以这种定量计算社会科学的方式研究这种非常普遍的性别刻板印象——即男性在某种程度上是默认的人类——的研究,”卡内基梅隆大学心理学系的研究科学家莫莉·刘易斯说,她没有参与这项研究。

研究人员还研究了常用来描述人的动词和形容词——例如,“外向型”——并发现它们与表示男性的词语的联系比与表示女性的词语的联系更紧密。 当团队测试刻板印象的性别词语时,例如男性个体的“勇敢”和“杀戮”,或女性个体的“富有同情心”和“咯咯地笑”,男性与所有这些词语的关联程度相同,而女性则与那些被认为是刻板印象的女性词语的关联最为密切。

贝利说,这一发现表明人们“倾向于更多地以性别刻板印象来思考女性,并且倾向于以通用术语来思考男性”。 “他们认为男性只是可以做各种不同事情的人,而认为女性真的只是可以做性别刻板印象的事情的女性。”

对这种偏见的一种可能解释是许多假定中性的英语单词的性别化性质,例如“chairman”、“fireman”和“human”。 潜在地消除我们有偏见思维方式的一种方法是用真正性别中立的替代词语替换这些词语,例如“chairperson”或“firefighter”。 值得注意的是,该研究主要使用英语单词进行,因此尚不清楚研究结果是否适用于其他语言和文化。 然而,在其他语言中也发现了各种性别偏见。

虽然认为“人”等于“男人”的偏见在某种程度上是概念性的,但其后果却是非常真实的,因为这种趋势塑造了我们周围技术的设计。 女性在车祸中更容易受到重伤或死亡,因为当汽车制造商设计安全功能时,他们设想的默认用户(以及他们测试的碰撞假人)是男性个体,其身体比普通女性更重,腿更长。

另一个重要的含义与机器学习有关。 词嵌入,即新研究中使用的相同语言工具,被用来训练人工智能程序。 这意味着源文本中存在的任何偏见都将被这种人工智能算法所拾取。 亚马逊面临着这个问题,此前曝光该公司希望用于筛选求职者的算法会自动将女性排除在技术职位之外——这重要地提醒我们,人工智能的智能程度,或者说偏见程度,仅仅与训练它的人类相同。

Dana Smith is a freelance science writer specializing in brains and bodies. She has written for 大众科学, the Atlantic, the Guardian, NPR, Discover, and Fast Company, among other outlets. In a previous life, she earned a Ph.D. in experimental psychology from the University of Cambridge.

More by Dana G. Smith
© . All rights reserved.