编者按 (12/21/21): 本文正在一个 关于医疗保健公平的特别合集 中展出,该合集由 Takeda Pharmaceuticals 的支持成为可能。本文为独立出版,未接受赞助。
我们通常不认为日常设备会对种族或性别有偏见,但它们可能存在偏见。电气工程师和计算机科学家 Achuta Kadambi 对这个问题既有专业的认识,也有个人的体会。“就我个人而言,我的肤色相当深,”卡丹比说,他有时无法启动非接触式皂液器和探测皮肤反射光的水龙头。他回忆说,在某个机场,“我不得不请一位肤色较浅的旅客帮我触发水龙头。”
医疗设备也可能存在偏见——这个问题在新冠疫情期间受到了更多关注,以及许多其他影响健康的不公平现象。在最近发表于 Science 的一篇文章中,加州大学洛杉矶分校塞缪理工程学院的助理教授卡丹比描述了种族和性别偏见可能渗透到医疗设备的三个方面,并提出了一些解决方案。他认为,公平性应与有效性一样,成为评估新技术的标准。
卡丹比说,第一个问题是物理偏见,它内在存在于设备的机械结构中。其次是计算偏见,它存在于软件或用于开发该设备的数据集中。最后是解读偏见,它并非存在于机器中,而是存在于用户身上。当临床医生对医疗设备和测试的读数应用不平等的、基于种族的标准时,就会发生解读偏见——一种令人震惊的常见做法。“偏见是多维度的,”卡丹比说。“通过了解它的根源,我们可以更好地纠正它。”
物理偏见在去年十二月成为新闻,当时一项 密歇根大学的研究 发现脉搏血氧仪——它使用穿过皮肤和组织的透射光来测量人体血液中的氧气——在黑人患者中漏诊低血氧水平的可能性是白人患者的三倍。其他仪器在肤色方面也可能遇到问题。远程体积描记术是一种新技术,通过分析实时或录制的视频来测量心率,当程序设置为捕捉皮肤上类似脸红的变化时,对有色人种的效果较差。但是,卡丹比说,“有多种提取信号的方法,偏见程度各不相同。” 例如,麻省理工学院的一个团队创建了一种远程体积描记仪,读取头部运动的微小变化,这些变化发生在心脏跳动时。卡丹比的实验室正在尝试其他解决方案,包括使用热波长而非可见光分析视频图像。
当医疗技术主要在一组同质的受试者(通常是白人男性)身上进行测试时,计算偏见可能会悄然进入。例如,根据 2020 年阿根廷科学家团队的一项分析,当在很大程度上以男性扫描为训练数据时,一个用于分析胸部 X 光片并识别 14 种不同肺部和胸部疾病的人工智能系统对女性的效果较差。但是,用性别平衡的样本训练系统产生了最佳的总体结果,并且对男性的准确性没有显著损失。卡丹比怀疑,其中一个原因可能与一个名为域随机化的概念有关——向训练数据添加更多种类往往会提高性能。
阻止计算偏见意味着要付出更大的努力,招募来自不同人群的人参与医疗设备的设计和测试。明尼苏达大学研究生殖健康和种族公平的公共卫生科学家蕾切尔·哈德曼观察到,如果研究团队本身更加多元化,这将有所帮助。“当您对[医疗实验]有不信任的历史,加上您没有看到任何看起来像您的人实际在做这项工作时,这又是一个信号,表明这不适合您,”她说。
除了在研究人员中建立多样性之外,哈德曼还赞成对医务人员进行关于种族主义影响健康的基本方式的强制性培训,这一步骤也可能有助于对抗导致解读偏见的做法。她指出,加利福尼亚州已朝着这个方向迈进,2020 年的一项法律要求治疗孕妇及其新生儿的医疗保健提供者完成 一项课程(哈德曼正在设计其中一项),旨在缩小孕产妇和婴儿死亡率方面的种族差距。
为了让工程师们掌握整体信息,卡丹比提出了另一项要求:在关于任何新医疗设备的已发表工作中包含“公平性声明”,说明该设备在不同人群中的性能表现如何。期刊和工程会议可以像要求提供利益冲突声明一样,要求提供这些信息。“如果我们添加一个激励公平性的指标,谁知道会涌现出什么新想法呢?”卡丹比建议。“我们可能会发明解决工程问题的完全不同的方法。”