缺乏小数据,医疗保健领域的人工智能加剧不平等

医疗保健领域的人工智能系统必须基于生活经验数据进行训练,以防止偏见和不平等

Doctor viewing a patient's brain scan on a screen

几年前,我参加了一个国际医疗保健会议,热切期待着主题演讲嘉宾关于一项针对美国低收入社会经济群体糖尿病干预措施的演讲。他指出,人工智能工具如何使研究人员和医生能够使用模式识别来更好地为糖尿病患者规划治疗方案。

演讲者描述了这项研究、其背后的想法、方法和结果。他还描述了参与该项目的典型人员:一位 55 岁的黑人女性,其阅读水平相当于 7 至 8 年级,体重指数表明肥胖。演讲者说,这位女性很少坚持她正常的糖尿病治疗计划。这让我感到困扰:一个人是否坚持治疗被简化为二元的“是”或“否”。这并没有考虑到她的生活经验——她日常生活中导致她健康问题以及无法坚持治疗的事情。

该算法依赖于药物、实验室测试和诊断代码等数据,并且基于这项研究,医生将为中老年、低收入黑人女性提供医疗保健和设计治疗计划,而没有考虑这些计划的可行性。这种做法无疑会加剧健康差距和健康不公平现象。


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业 订阅。通过购买订阅,您正在帮助确保未来能够继续产出关于塑造我们当今世界的发现和想法的、具有影响力的报道。


当我们继续在医疗保健领域构建和使用人工智能时,如果我们想要在获取、交付和结果方面实现真正的公平,我们需要在整个医疗保健过程和生态系统中采取更全面的方法。人工智能开发人员必须来自不同的背景才能实现这一目标,并且他们需要使用“小数据”来训练他们的系统——关于人类经验、选择、知识以及更广泛的健康社会决定因素的信息。通过这样做,我们将避免的临床错误将节省资金、减少污名并改善生活。

在我看来,医疗保健领域人工智能的一个根本缺陷在于它过度依赖大数据,例如医疗记录、影像和生物标志物值,而忽略了小数据。然而,这些小数据对于理解人们是否可以获得医疗保健、医疗保健的交付方式以及人们是否可以坚持治疗计划至关重要。这是将人工智能引入医学各个方面的努力中缺失的组成部分,没有它,人工智能不仅会继续存在偏见,还会助长偏见。

医疗保健领域人工智能开发的整体方法可以在任何阶段发生;生活经验数据可以为早期阶段提供信息,例如问题定义、数据采集、整理和准备阶段,中间工作(如模型开发和训练)以及最终的结果解释步骤。

例如,如果基于名为 R 平台的 AI 糖尿病模型接受过小数据训练,它就会知道一些参与者需要乘坐公共汽车或火车一个多小时才能到达医疗中心,而另一些人则工作繁忙,很难在工作时间去看医生。该模型可以考虑到食物沙漠,食物沙漠限制了人们获得营养食品和体育锻炼机会,因为食物不足在糖尿病患者中更为常见(16%),而在非糖尿病患者中为 9%。

这些因素是社会经济地位的一部分;这不仅仅是收入,还包括社会阶层、教育程度以及我们社会中人们所享有的机会和特权。更好的方法是包括捕捉或考虑健康社会决定因素以及健康公平的数据。这些数据点可以包括经济稳定性、社区或环境属性、社会和社区环境、教育机会和质量以及医疗保健的可及性和质量。

所有这些都可以让提供者和医疗系统更细致地了解为什么研究中的任何一位女性可能无法坚持包含多次就诊、每天服用多种药物、体育锻炼或社区支持小组的治疗方案。治疗方案可以包括长效药物、不需要旅行的干预措施等等。

相反,在那次谈话中,我们得到的结论是,研究中典型的黑人女性并不关心自己的病情及其慢性健康影响。这种研究结果通常被狭隘地解读,并且缺乏“完整”的生活经历和条件。因此,临床建议排除了“典型”患者的健康社会决定因素,并且在不了解“如何”的情况下给出、报告和记录,例如黑人女性患者如何生活、工作、旅行、礼拜和衰老。这是极其有害的医学。

预测建模、生成式人工智能和许多其他技术进步正在公共卫生和生命科学建模领域飞速发展,但小数据并未纳入项目生命周期。在 COVID-19 和疫情准备方面,与肤色较浅的人相比,肤色较深的人不太可能获得补充氧气和救生治疗,因为脉搏血氧仪算法的快速发展没有考虑到肤色较深会导致血氧仪高估患者的血氧饱和度,并低估 COVID-19 病例的严重程度。

人机结合要求我们所有人反思,而不是急于做出判断或得出结果,并提出关键的问题,这些问题可以为公平的健康决策提供信息,例如关于医疗保健资源分配、资源利用和疾病管理。算法预测已被发现导致疼痛方面的健康差距比标准差高出 4.7 倍,并且已被证明会导致心脏病学、放射学和肾脏病学等领域的种族偏见,这仅仅是几个例子。模型结果不是数据工作的终点,而应嵌入到算法生命周期中。

对生活经验数据的需求也是人才问题:谁在进行数据收集和算法开发?2018 年,只有5% 的在职医生认为自己是黑人,约 6% 认为自己是西班牙裔或拉丁裔。与患者外貌相似并且对他们执业的社区有所了解的医生,更有可能询问那些成为小数据的事项。

构建人工智能平台的人员也是如此;在同一群体以及美洲印第安人或阿拉斯加原住民中,科学和工程教育水平有所下降。我们必须将更多来自不同群体的人员引入人工智能的开发、使用和结果解释中。

如何解决这个问题是多层面的。在就业方面,有色人种在数据工作中可能隐形但存在,缺席或不被倾听;我在我的书《利用交叉性:看见与看不见》中谈到了这一点。组织必须对其使用或创建的系统负责;他们必须培养包容性的人才和领导力。他们必须在有意识地招聘和留住有色人种,并理解有色人种的组织经验。

人工智能中的小数据范式可以用来解读生活经验。否则,偏见会被编码到不代表真相的数据集中,这种编码会嵌入对人类背景的抹杀和告知我们解释的计数——最终会放大“典型”患者生活中的偏见。数据问题指向人才问题,无论是在临床层面还是技术层面。此类系统的开发不能是二元的,就像糖尿病研究中的人工智能一样。“典型”患者被视为依从或不依从也不能被接受为真相的最终版本;必须考虑护理方面的不公平现象。

这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。

© . All rights reserved.