人工智能(AI)在医疗保健领域正处于一个转折点。经过 50 年的算法和软件开发,已经产生了一些强大的方法来从大数据中提取模式。例如,深度学习神经网络已被证明在图像分析方面有效,从而产生了首个获得美国食品药品监督管理局(FDA)批准的人工智能辅助诊断,仅使用患者眼睛的照片来诊断一种称为糖尿病视网膜病变的眼部疾病。
然而,人工智能在医疗保健领域的应用也暴露了其许多弱点,世界卫生组织(WHO)最近的一份指导文件中概述了这些弱点。该文件涵盖了一长串主题,每一个都和前一个一样重要:负责任的、可问责的、包容的、公平的、符合道德的、无偏见的、响应迅速的、可持续的、透明的、值得信赖的和可解释的人工智能。这些对于提供医疗保健以及在我们以患者的最大利益为首要考虑因素时如何对待医学至关重要。
不难理解为什么算法可能存在偏见、排斥性、不公平或不道德。这可以用其开发人员可能没有赋予它区分好坏数据的能力来解释,或者他们没有意识到数据问题,因为这些问题通常源于歧视性的人类行为。一个例子是根据肤色无意识地对急诊室患者进行不同的分类。算法擅长利用这些类型的偏见,而让他们意识到这些偏见可能具有挑战性。正如世界卫生组织指导文件所建议的那样,我们必须仔细权衡人工智能的风险和潜在的好处。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过 订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
但是,更难以理解的是为什么人工智能算法可能不透明、不值得信任和不可解释。透明意味着很容易理解人工智能算法,它是如何工作的以及幕后进行工作的计算机代码。这种透明度,加上严格的验证,可以建立对软件的信任,这对于患者护理至关重要。不幸的是,医疗保健行业使用的大多数人工智能软件都来自商业实体,他们需要保护知识产权,因此不愿意泄露他们的算法和代码。这可能会导致对人工智能及其工作的缺乏信任。
当然,信任和透明是值得追求的目标。但是解释呢?理解人工智能或人工智能渴望成为什么的最好方法之一是思考人类如何解决医疗保健挑战并做出决定。当面对具有挑战性的患者时,咨询其他临床医生是很常见的。这利用了他们的知识和经验基础。咨询人类的优势之一是我们可以用“为什么”的问题来跟进一个答案。
“为什么你认为这种治疗是最好的行动方案?”
“为什么你推荐这个程序?”
一位优秀的临床医生顾问应该能够解释为什么他们会提出特定的建议。不幸的是,现代人工智能算法很少能够回答他们为什么认为某个答案是好答案的问题。这是信任的另一个维度,可以帮助解决偏见和道德问题,也可以帮助临床医生从人工智能中学习,就像他们从人类顾问那里学习一样。
我们如何才能实现可解释的人工智能?有趣的是,医疗保健领域最早成功的人工智能算法之一是 MYCIN 程序,由医生和计算机科学家爱德华·肖特利夫在 1970 年代初开发,用于为重症监护病房的患者开抗生素。MYCIN 是一种被称为专家系统的人工智能,它可以通过回溯其概率计算来回答“为什么?”问题,以告知用户它是如何得出答案的。
这是人工智能领域的一个重要进步,我们似乎在寻求性能更好的算法时失去了它。如果算法的开发者真正了解它的工作原理,那么可解释的人工智能应该是可能的。这仅仅是将时间和精力投入到跟踪算法的迭代过程中,并以人类可以理解的形式向用户呈现它得出答案的路径的问题。
换句话说,这应该只是开发人员优先考虑的问题。任何复杂到开发人员都无法理解其工作原理的人工智能算法,可能都不适合医疗保健。
我们在人工智能领域取得了巨大的进步。我们都对人工智能如何帮助患者感到非常兴奋。我们对人工智能的失败也感到谦卑,例如最近的研究表明,由于数据中的偏见,人工智能诊断 COVID-19 的结果不可靠。在开发和评估用于临床的人工智能算法时,我们必须牢记临床医生。我们必须不断思考什么对患者有益,以及如何获得使用该软件的临床医生的信任。人工智能解释自身的能力将是关键。
这是一篇观点和分析文章;作者或作者表达的观点不一定代表《大众科学》的观点。