• 首页
  • 科学成果
  • 放射学中的人工智能:放射科医生和开发人员的伦理-田雪松博士

放射学中的人工智能:放射科医生和开发人员的伦理-田雪松博士

2023-08-30

摘要:随着人工智能(AI)在放射学中找到自己的位置,如今是要考虑的是如何以最有利于患者的方式指导研究和临床实施。这个问题最关键的是:放射科医生和人工智能开发人员的自身利益与患者的最大利益之间存在潜在的冲突。放射科医生知道,支持对人工智能的研究,并倡导在临床环境中采用人工智能,可能会减少他们的就业机会,降低对他们职业的认可,这就是他们以各种方式反对AI的动机。人工智能开发者有大肆宣传他们的发现以获得关注,这可能会带来短期的个人利益,然而,如果技术水平与承诺的水平相去甚远,它也可能使人们产生该领域的信任危机。人工智能在放射学中的未来研究和临床应用部分将由放射科医生和人工智能研究人员决定。因此,我们必须认识到自己的个人动机和偏见,并采取负责任的行动,以确保人工智能转型给患者带来最大的利益。

关键词:人工智能;机器学习;道德规范;算法的发展

 

1 引言

      人工智能(AI)在过去几年中取得了迅速的发展,这在很大程度上是由深度学习的成功推动的,深度学习是人工智能的一个分支,它使用简单互连处理单元的网络从数据中学习。这些算法已被证明在各种应用中表现出色,包括分析医学图像,这是一项一般由放射科医生执行的任务。

      如果人工智能算法能够在临床环境中的表现超过放射科专家,并且能够以对患者友好的方式在医疗系统中实施,那么人工智能算法将具有明显的优势,其卓越的性能在疾病的早期发现和适当的治疗中体现,减少不必要的程序。成本的降低可以使许多病人获得更好地护理,并改善医学研究的环境。潜在的好处不胜枚举。

      与人工智能相关的道德考量有很多。许多扩展到放射学AI领域(1-3)。一个重要的伦理问题是对错误的责任。另一个具有强烈伦理性的重要问题是如何利用放射学人工智能提供的潜在价值来造福患者。这个问题非常复杂,涉及到很多方面:包括患者、放射科医生、放射学会、放射实践、医院、销售算法的公司、成像设备制造商、PACS提供商、保险公司和政府立法部门。这个问题的复杂性源于这样一个事实:即这些行为者的动机往往与彼此以及患者的利益不太一致。

     在本文中,我将讨论一个可能没有受到那么多关注的伦理问题:放射科医生在什么时候反对人工智能算法的发展及其在临床实践中的实施才会变得不道德?为了回答这个问题,我将探讨放射科医生想要造福病人与想要推进自己的事业和保持专业声誉之间潜在的利益冲突。同样,对于人工智能开发者,我将探讨自身利益与患者福祉之间的冲突。这些现象很重要,因为它们与研究和临床实施决策有关,而这些决策将决定放射学人工智能的未来。


2  什么是伦理?

      没有一种道德行为是被普遍认可的,甚至没有一套被普遍认可的原则或价值观可以作为道德教义的基础。然而,我们确实有很多意见是一致的,缺乏普遍接受的道德教义并不能免除我们对自己选择的深思熟虑和体贴。

      在思考哪些行为是道德的,哪些行为不是道德的时候,首先假设我对道德有一定的理解。具体来说,我将功利主义伦理学说和古希腊履行个人社会角色学说进行一定的结合。

      功利主义是“为最多数人谋求最大利益(或幸福)”的伦理理论。从这个角度来看,伦理问题将由患者的利益主导,因为他们的人数远远超过放射科医生和人工智能开发人员,而疾病造成的痛苦往往超过许多其他负面的生活结果(如收入损失)。虽然功利主义观点是本文的主要观点,但我也吸取了许多古希腊伦理理论的观点。他们的观点认为,履行自己在社会中的角色(如医生、科学家、工程师、士兵、政治家)是一种重要的道德表现(4)。


3 什么时候放射科医生反对人工智能会变得不道德?

     我将以肿瘤学历史上的一则轶事开始对这个问题的思考。在化疗研究和临床应用的早期,用有毒药物治疗癌症的想法被一些人认为是不可容忍的,人们对它持相当程度的怀疑态度(5)。即使有明显的证据表明这种治疗有效,反对意见仍在继续。特别强烈的反对来自癌症治疗的另外两个“相互竞争”的分支:外科肿瘤学和放射肿瘤学。这种反对意见很可能导致人们对化疗的理解放缓,限制了患者获得新疗法的机会,并造成生命损失。

      我提到这段历史轶事,并不是说人工智能已经在这里拯救病人的生命,任何反对它的行为都是不道德的。但是反对人工智能和反对化疗之间存在重要的相似之处。 

      根据我作为一名致力于开发放射学人工智能工具的科学家的经验,我很高兴能在各种工作环境(研究、拨款审查小组、会议等)中定期与我所在机构和许多其他机构的放射科医生进行交流。在这些交流中,尤其是在我最亲密的合作者之间,我有时也会听到有偏见和无益的观点,这让我质疑演讲者的动机。

      一方面,放射学中的人工智能算法有望对患者护理产生积极的影响。因为造福病人是医生的愿望和义务,所以他们有兴趣支持人工智能的工作。在某种程度上,它可能会成为一种义务,放弃部分或全部的职责给一个性能优越的计算机算法。另一方面,放射科医生对自己的能力感到自豪,他们会希望利用他们来之不易的技能来造福病人,并维护他们职业的声誉。他们也可能希望继续赚取一份舒适的收入来养活自己和家人。在美国和世界各地(在不同程度上),医生,包括放射科医生,由于他们高度重视的服务,高于平均水平的教育,而且往往比平均水平高得多的财富,在社会等级中处于高位。如果计算机能够完成类似的工作,这种尊重在社会的眼中可能会大大减少。

      虽然我们都愿意相信我们的判断是完全理性的,但人们的决定受到许多其他因素的影响,这些因素往往很难被发现(6,7)。

      虽然放射科医生自己可能不会决定人工智能是否会成为放射学的重要组成部分,但他们的意见将影响人工智能的研究及其在诊所中的潜在应用。放射科医生可能在在临床实践中是否使用人工智能向机构领导提出建议。他们可能会评估人工智能研究,同时担任拨款研究部门或科学期刊/会议的审稿人。他们可能会在社交媒体上表达对人工智能的看法,这些观点被政府机构的决策者等人阅读。

      个人利益和患者利益之间潜在的冲突是否意味着放射科医生不应该公开反对人工智能,或者他们有义务推广人工智能?绝对不是。公正的批评是至关重要的,也是非常必要的,特别是在放射学人工智能发展的这个阶段。然而,放射科医生的道德义务是探讨一个特定的方向是否有机会最终改善患者的生活,并据此表达他们的意见。

       同样重要的是,要努力认识到由不一致利益造成的偏见,并问自己:“如果它不影响我未来的工作,我还会坚持这种观点吗?”如果经过这样的考虑,还认为某一研究方向或研究存在缺陷,或者某一特定的基于人工智能的系统不应该在实践中使用,那么就应该表达这种意见。如果研究表明放射科医生与人工智能的密切互动是有益的,那么就应该支持在这个方向和临床方面的研究这些混合系统的实现。最后,如果研究表明应该只使用人工智能而不需要放射科医生来解释一些医学图像,那么放射科医生就有道德义务提倡这种做法。


4 人工智能开发者的责任是什么?

      放射学的人工智能算法已经在开发了二十多年。最近几年,人们对这个话题的兴趣急剧增加。尽管之前放射学人工智能在工业上有一些发展,但过去几年,该领域的初创公司激增。

      像放射科医生一样,人工智能开发人员除了提高患者护理水平的目标外,还有自己的个人目标。对许多学者来说,这是一个人职业生涯的进步,包括晋升、终身职位和在同事中的声望。对于企业家来说,它是通过确保下一轮融资和销售产品来增加公司的价值。

      这些目标,虽然表面上与改善病人护理的目标不同,但往往是一致的。例如,发表一项良好的研究,展示对放射学人工智能算法的评估,既可以使我们的社会在临床实践中更接近高精确的算法,也可以使作者下一次晋升更容易。同样,创业公司的创始人开发并验证人工智能算法,既可以为患者的福祉做出贡献,也可以让创始人的公司更成功。

      然而,人工智能开发人员的个人目标并不总是与推进医疗保健的崇高目标完全一致。例如,学术机构共享临床影像数据的激励机制有限(尽管越来越多)。共享数据可以说是人们可以为开发放射学中强大的人工智能系统做出的最重要的贡献之一。任何学术期刊都关注这项工作的创新和技术,从而使研究人员减少对现有技术进行耗时的验证研究,而这对于开发临床有用的人工智能也至关重要。当一个人必须选择在哪里投入实验的时间和资源时,会出现非常多的的情况。

      一般来说我们对时间分配纯粹是实用主义,与我们的组织能力有关,但它们本质上也是道德的。当我们选择做一些事情来推进我们的事业时,我们可能会忽略一些可能对更多人更有利的事情。

      事实上,我们的行为部分受到利益的引导,这是一个将这些激励与医疗保健的进步更好地结合起来的机会,特别是在学术环境中。例如,在医疗数据科学家的学术晋升和终身任职过程中,应该更加重视数据和代码共享。以技术为导向的拨款申请评估中,对创新的关注导致了高度创新技术的发展,但适当的验证和临床实施远远落后。呼吁拨款提案的重点是将人工智能技术置于适当的临床环境中,并进行多方面(回顾性或前瞻性)验证。

      在一篇论文中夸大结论可能会给作者带来短期的好处,因为它可能会给论文带来更多的关注和更多的引用。然而,从长远来看,这可能是有害的。它可能会造成对学术水平的错误认识。反过来,这可能会给未来的研究人员带来困难,因为他们会根据这种不切实际的期望来进行判断。

      其次,当不切实际的期望与现实不符时,这可能导致放射科医生、患者和资助机构对该领域的不信任增加。这个问题在以营利为目的的行业中更加突出。


5 总结

     本文中,我探讨了放射学人工智能的未来发展可能发生冲突的两个动机:(1)为患者提供最大的利益, (2)我们的个人利益。这种冲突可能会影响放射科医生和人工智能开发人员的意见和决定。我们所表达的观点和我们所做的决定可能会影响放射学人工智能的研究和未来的临床应用。如果我们的首要任务是提高病人的护理水平,而不是保护自己的地盘,我们必须抛弃自己的偏见。

     因此,我们必须抛弃自己的偏见,负责任地探讨放射学上的转变,并最终使患者的健康受益。