机器如何学习偏见

人工智能从人类创造者那里而非冰冷的逻辑中习得偏见

如果人工智能接管我们的生活,那可能不会是人类与机器人大军作战,后者无情地运用类似斯波克的逻辑来奴役我们。相反,已经让AI程序为你推荐电影或在照片中识别你朋友面部的机器学习算法,很可能也会在某一天拒绝你的贷款、引导警察到你的社区或告诉你的医生你需要节食。由于人类创造了这些算法,它们同样容易受到偏见的影响,而这些偏见可能导致糟糕的决策——以及更糟的结果。

这些偏见引发了一些关于我们日益依赖人工智能技术的直接担忧,因为任何由人类设计为绝对“中立”的AI系统,仍然可能强化人类的偏见思维,而不是看穿它。例如,执法官员已经因使用据称将黑人被告标记为更有可能在未来犯罪的计算机算法而受到批评,即使该程序并非旨在明确考虑种族。

主要问题是双重的:首先,用于校准机器学习算法的数据有时不足,其次,算法本身可能设计不佳。机器学习是软件开发人员训练AI算法的过程,使用与手头任务相关的大量数据。最终,算法会在最初提供的数据中发现模式,使其能够在新数据中识别类似的模式。但这并非总是按计划进行,结果可能是可怕的。例如,在2015年6月,谷歌的照片分类系统将两名非裔美国人识别为“大猩猩”。该公司迅速修复了这个问题,但微软AI研究员凯特·克劳福德在《纽约时报》评论版中指出,这个错误反映了AI中更大的“白人男性问题”。也就是说,用于训练软件的数据过于依赖白人的照片,从而削弱了其准确识别具有不同特征的人的图像的能力。


支持科学新闻报道

如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方式是 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


最近涌入Facebook用户新闻提要的虚假新闻也突显了AI偏见问题。Facebook的热门新闻算法优先考虑基于互动的故事——用户点击或分享的频率。根本没有考虑真实性。在11月初,几家新闻媒体透露,一群马其顿青少年欺骗了Facebook的新闻提要算法,使其推广明显虚假的故事,这些故事在美国大选期间吸引了右翼选民。Facebook表示,此后已修改该算法,并宣布计划让SnopesFactcheck.orgABC NewsPolitiFact帮助筛选出明显的虚假文章。

“这有点像‘俄罗斯坦克问题’,”马里兰大学计算机科学副教授哈尔·道梅三世说。这个传说——虽然是杜撰的但具有启发意义,并且经常被计算机科学教师讲述——可以追溯到20世纪80年代机器学习的早期。故事说,美国军方试图训练一台计算机来区分照片中的俄罗斯坦克和美国坦克。“他们获得了超高的分类准确率——但所有俄罗斯坦克的照片都是模糊的,而美国坦克是高清的,”道梅解释说。该算法并没有识别坦克,而是学会了区分颗粒感照片和高质量照片。

尽管存在这些已知的局限性,但一组研究人员最近发布了一项研究,声称一种算法可以通过评估面部特征来推断某人是否是罪犯。中国上海交通大学的研究人员吴晓林和张希在一个包含1,856张面部照片的数据集上训练了一个机器学习算法——730名罪犯和1,126名非罪犯。在查看了90%的照片后,该AI能够正确识别剩余10%的照片中哪些是罪犯。

这项算法将特定的面部特征与犯罪行为联系起来,根据该研究。例如,罪犯更可能在眼角、嘴唇曲率和鼻尖的位置之间具有某些空间关系,吴说——尽管他指出,拥有任何一种这些关系并不一定表明一个人更有可能成为罪犯。吴还发现,罪犯的面孔彼此之间差异更大,而非罪犯的面孔往往具有相似的特征。

吴继续使用一组它以前从未见过的不同照片测试该算法,并发现它通常可以正确地识别出罪犯。研究人员试图通过仅使用没有面部毛发或疤痕的青年或中年中国男性的面孔来训练和测试他们的算法,从而避免偏见。

“我开始是为了证明面相学是错误的,”吴说,他指的是根据面部特征评估性格的古老伪科学。“我们对结果感到惊讶。”尽管这项研究似乎验证了面相学的某些方面,但吴承认,使用这种技术在警察列队中挑出某人是“疯狂的”,并表示没有任何执法应用计划。

其他科学家表示,吴和张的研究结果可能只是在强化现有的偏见。谷歌研究机器学习的首席科学家布莱斯·阿吉拉·伊·阿卡斯指出,受试者的犯罪行为是由人类运行的当地司法系统决定的,而人类会做出(也许是潜意识的)有偏见的决定。该论文的核心问题在于,它依赖于这个系统“作为标记罪犯的真实依据,然后得出结论,认为由此产生的[机器学习]不受人类判断的偏见影响”,阿吉拉·伊·阿卡斯补充道。

吴和他的同事们“直接跳到结论,认为他们发现了自然界中潜在的模式——面部结构预测犯罪行为。这是一个非常鲁莽的结论,”华盛顿学院数学助理教授凯尔·威尔逊说,他研究计算机视觉。威尔逊还表示,这种算法可能只是反映了特定司法系统中人类的偏见,并且可能在任何其他国家也做同样的事情。“相同的数据和工具可以用来更好地理解[人类]在刑事司法系统中基于外貌的偏见,”威尔逊说。“相反,他们教会计算机复制那些相同的人类偏见。”

还有其他人表示,可以通过考虑计算机学习的模式中的错误来改进这项技术,以试图排除人类的偏见。瑞士AI实验室达勒莫勒人工智能研究所科学主任于尔根·施密德胡伯说,AI系统在学习时会犯错误——事实上它必须犯错,这就是为什么它被称为“学习”。他指出,计算机只能在给定数据允许的范围内学习。“你无法消除所有这些偏见来源,就像你无法消除人类的这些来源一样,”他说。但他补充说,有可能承认这一点,然后确保使用好的数据并良好地设计任务;提出正确的问题至关重要。或者,记住一句老程序员的谚语:“垃圾进,垃圾出。”

© . All rights reserved.