缩略图

医疗人工智能应用的医学伦理问题研究

作者

林晓宇

西南大学,重庆 北碚 400715

[摘要]医疗人工智能的应用更新了医学伦理研究的视域,在不同层面上重构着传统医学伦理研究。本文针对这一问题,在论述医疗人工智能发展现状的基础上,对医学伦理所关注的医疗关怀问题、医疗决策问题和医疗责任界定问题进行了细致的研究和讨论,并就这些问题从政策法规制定、伦理监管、公众伦理意识和国际伦理治理交流四个方面进行治理策略分析,以达到在新兴技术背景下对传统医学伦理框架进行补充的目的。

[关键词] 医学伦理;医疗人工智能;伦理问题;治理策略

随着互联网技术的发展,医学伦理学在兼顾传统生命伦理的探讨之外,延伸出了一个新的面向,即转向对医学领域中某类特定技术应用引起的伦理问题的讨论。如果说此前的生命伦理关注的是更为宏大的人的生命叙事,那么现如今医学伦理则多了一种对于人的医疗过程的细致考察,这两种考察同宗同源,都属于医学伦理的基本范畴,只不过当今技术变革的速度加快促使着人们不得不去思考与自身利益更为相关的大数据、云计算、人工智能等技术在医疗领域内的应用。人工智能作为其中一项技术,其对医疗卫生服务的推进作用是巨大的,但同时也因为其覆盖面广、影响范围大而备受争议,医疗人工智能的医学伦理分析将聚焦这些争议中的核心问题,对人工智能技术在医疗领域内应用所产生的医患关系、医疗决策、医疗责任界定问题进行分析,确保能从不同方面阐释人工智能应用对医疗领域产生的伦理冲击。

一、人工智能在医疗领域应用的现状

根据2021年世界卫生组织(World Health Organization,简称WHO)的定义,医疗人工智能是指通过机器学习处理医学数据,辅助临床决策的智能系统[1]。现阶段,人工智能在医疗领域的应用已取得明显成就,具体表现在以下几个方面:其一是医学影像,医学影像作为现代医学诊断和治疗的重要依据,在疾病的早期发现、准确诊断以及治疗方案的制定中发挥着关键作用,人工智能技术在医学影像领域的应用涵盖了影像辅助诊断、病理诊断、智能放疗系统和智能云影像平台等方面;其二是医疗辅助,语音电子病历、智能导诊、智能问诊及辅助决策支持是人工智能在医疗辅助方面的主要应用,其凭借独特的技术优势和应用价值,为提升医疗服务质量、优化医疗流程以及促进医疗资源合理配置提供了新的契机;其三是健康管理,其依靠智能穿戴设备,如智能手环、智能手表、智能血压计等,实时收集心率、血压、睡眠等生理数据,同时整合电子病历、体检报告这类不同来源的健康信息,利用自然语言处理技术解析病历中的非结构化文本,建立全面的个人健康档案,基于收集的多源数据再进行健康风险评估;其四是药物研发,药物研发借助人工智能算法对海量生物医学数据进行深度挖掘与分析,可实现对药物靶点的高效预测与筛选,通过模拟药物分子与生物靶点之间的相互作用机制,能够在早期阶段评估药物的潜在疗效与安全性,显著缩短药物研发周期,降低研发成本。

二、人工智能在医疗领域应用的医学伦理分析

人工智能在医疗领域应用的医学伦理分析聚焦于新技术对原有医疗环境产生的影响,具体落实在对医疗关怀、医疗决策和医疗责任界定三个问题的解读上。

(一)医疗关怀问题

医疗关怀问题是一个复杂且多元的社会问题,是社会矛盾在医疗领域的缩影。关怀的本质是人与人以及人与环境之间的关系,医疗关怀需要通过医疗技术、服务和支持,为患者提供身体、心理和社会层面的全面照护,因此医疗关怀不仅体现在医生与患者的关系上,也体现在整个医疗人文环境的构建上,强调医患关系和医学的人文精神。人工智能作为一个具有一定能动性的智能体,在医疗领域内的地位有别于其他技术,传统的技术模式在医疗领域内的应用充当的是工具性的身份,该技术背景下产生的伦理问题多是由工具理性主导,通过医疗实践活动来显化自身,这一特征导致了医患关系的技术化[2]。人工智能的技术模式同样继承了“技术化”这一特征,同时为医患关系中增加了一个拟主体性质的智能体存在,这一具有能动性的拟主体将会使医患关系在结构上发生新的转变。以往医疗实践的模式是以医生为主导、患者知情同意的“医-患”主从模式,人工智能的加入使其凭借强大的数据处理和推理模式迅速在医疗领域中占据一席之地,并促使医患之间的主从关系开始向“医-人工智能-患”的三角关系转变,在这样的转变过程中,原有医疗模式下的信任问题也将受到冲击[3]。

医疗人工智能应用对医患关系的影响,最直接地是加剧医患信任危机,更深层地会导致人机价值对齐困难,医疗环境的人文叙事缺失,影响整个医疗行业的人际交流。医疗人文叙事是医疗实践环境中不可或缺的一部分,在医疗体系中具有不可忽视的价值,这一传统发源于古希腊西方医学之父希波克拉底(Hippocrates),在希波克拉底的理念中,医疗环境中医生首先要关心的是患者,而不仅仅是疾病,关心患者、以患者为中心的人文精神是希波克拉底传统的主旨[4],这一医学道德理念从公元前5世纪一直传承至今,成为指导医学实践的最终原则[5]。在现代医疗实践中,这一价值理念被技术使用所带来的工具理性所遮蔽,致使医疗环境中人文精神的日益缺失,医疗人工智能的应用也在一定程度上为这一遮蔽状态创造条件。

(二)医疗决策问题

医疗决策是医疗过程中的核心环节,关乎着患者的治疗方向与康复效果。从疾病诊断到治疗方案推荐,医疗人工智能都能通过对海量医疗数据的分析与处理,为医生提供辅助决策支持,在这些决策过程中,医疗人工智能可以表现出比人类更快的反应速度和信息综合能力,但其深度介入医疗决策,为医疗实践注入新的决策范式的同时,也存在一定的潜在风险。深度理清人工智能参与下的医疗决策模式,可以发现,其中主要存在两大伦理隐患,一是医疗决策的主体易位风险,二是医疗决策的对象权益受损。

医疗人工智能的人机共享混合决策模式中,可能造成决策主权偏倚的主要有两种情况:其一是在新技术应用的强势主导下,医生意识到医疗人工智能应用在优化其工作境况的潜力时,可能会采取较为开放的态度,对算法做出的决策过分乐观或自信,形成“医-人工智能”协作的互动机制,此时由于患者与医生以及医疗人工智能间存在着信息不对称的情况,难以分辨医疗人工智能对其就医过程介入到了什么程度,只能按照医生最后的判断行事,这将会导致强计算机主义的医疗家长主义产生[6];其二是出于对人工智能“去技能化”风险的考量[7],医生对医疗人工智能持谨慎观望的态度,转而将人机协作权让渡给患者,这时会形成“患-人工智能”协作的局面,新科技强大的数据处理能力和资源整合能力会让患者盲目相信算法的决策结果,再加上对医生从旁把关兜底的信任,患者可能倾向于无视医生的主体性判断,转而与算法决策的结果为基准来看待自身的健康状况,这一偏倚的后果是产生以患者为中心的医疗实践模式,这种模式可能会导致医生在进行诊疗安排时与患者的意见相左,导致医患矛盾的产生。

医疗人工智能依赖算法进行决策,算法的能动性使其在失去人为管控的情况下,直接威胁到患者的基本权益,具体表现为患者的知情同意权、自主权、公平权以及隐私权受损:算法黑箱以及医生决策主体地位的缺失,会使得医疗决策的过程不透明,患者无法知晓决策结果的来由,也无法判断决策结果是否是当下情况的最优解,更无法预见这一结果可能会产生何种风险,因此对医疗决策过程的知情权得不到保障;机器思维缺乏综合考量实际情况的能力,依据算法和生成的决策结果会相对单一,患者可选择的空间会被强逻辑性的智能系统压缩,进而导致其在考虑医疗决策结果时选择的自主权被削弱,只能被动接受现有结果;更进一步,算法本身存在偏见和歧视可能会在医疗决策这一环节被放大,产生不公平的资源分配结果,例如运用智能系统进行床位分配时,分配的算法设计可能没有综合考虑到患者的多元性和差异性,只选用单一指标作为分配的依据,可能会产生不合理的分配结果,致使患者得不到充分的治疗;最后,缺乏合理控制的算法系统存在极大的安全隐患,不利于患者的隐私保护。

(三)医疗责任界定问题

医疗人工智能改变了传统医学情境中医生和患者的对应关系,取而代之的是以“医-人工智能-患”为中心的新式医疗图景,此图景中医疗人工智能的研发机构、算法设计者、数据标注者、监督机构都作为智能系统得以应用的背景,成为医疗事件中的利益主体与责任主体,此时,医疗人工智能应用背景下的医疗事故责任界定将变得更为棘手,人工智能虽然能够对人类的认知进行延展,但却无力承担相应的道德责任,这一问题将会导致医疗人工智能在发生风险时,各方主体相互推卸责任而造成“道德责任空场”难题[8],因此需要以道德哲学的视角对该问题进行思考,在思考中找出责任划分的新出路。

通常来讲可以认为,人工智能具有弱自主性,这一弱自主性是对人类思维理解中的“自我意识、自由意志和道德责任”进行了技术化的投射,这一投射以人类思维为中介对本真“自我意识、自由意志和道德责任”进行了两次转换,最终生成形式类似但实质不同的人工智能自主系统。这一系统不具有能动性和创造意识,且在道德层面上不具有承担道德责任的能力,因为道德责任的承担不只需要行为主体具有道德能力,更重要的是具有理解道德准则和道德行为之间的关系的能力[9],人工智能显然不具备充分的理解能力,因此伦理学界和法律界普遍认为其不能够独立承担道德责任。医疗应用场景中的人工智能不具有承担道德责任的能力,将会导致“道德空场”现象产生。这一现象的产生存在两种情况,一种是某一环节出现漏洞且缺乏相关人员操作不当与防护不当的证据,造成医疗事故的产生;另一种是在相关人员动机纯正、操作正确且防护到位的情况下发生事故。这两种情况都会将矛头指向医疗人工智能,然而医疗人工智能不具备承担道德责任的能力,无论事故的发生是人为的还是自然的,都难以将道德责任直接归咎于其他个体或机构,最终形成“责任空场”[10]。

三、应对医疗人工智能医学伦理问题的策略

面对医疗人工智能不断发展的应用态势,为确保医疗人工智能更好地发挥技术价值,需要对上述问题进行伦理治理。治理(governance)一词原意为操纵、控制和引导,通过各个社会主体在不同层面上的互动及同一层面的磋商,有效解决社会行为中价值和利益的冲突[11]。伦理治理是运用治理工具将伦理原则和道德规范应用于组织、社会或特定领域的过程,科技伦理治理是以伦理原则为指导,协同政府、企业、科学共同体、利益相关者和社会公众等相关主体,解决科技发展中存在的伦理问题以促进科技稳步发展、提升公众福祉的治理手段,通过这一治理手段可以有效平衡技术发展需要和人类福祉最大化之间的矛盾。

首先,医疗人工智能相关的伦理标准和法律法规需要完善。2024年11月国家卫生健康委员会发布了《卫生健康行业人工智能应用场景参考指引》,为人工智能医疗应用提供了84个标准化应用框架,然而政策指引和技术先行的同时,我国尚未能及时跟进医疗人工智能的伦理标准制定。医疗人工智能的法律规制也存在滞后性,现行的法律条规无法有效解决医疗人工智能隐私侵权和事故责任界定问题,医疗人工智能应用所设计的数据数量庞大,且数据运用过程复杂,这对医疗数据的法律保护提出了更急迫的要求[12],且对违规行为制定相应的惩治措施也有极大的需求;医疗事件中相关主体的责任认定标准和权责分配也需要细致的规定,尽管医疗人工智能的主体性有待确定,但因其使用导致的不良后果仍需要法律的处理,法律的制定者应明确其在诊疗中的角色(如辅助工具而非独立主体),并建立分级责任体系,厘清医疗机构、医生、患者、开发者之间的责任边界,建立医疗人工智能的责任认定和赔偿机制[13]。

其次,应设立医疗人工智能的伦理审查与监管机制。现行的人工智能伦理审查法规无法涵盖人工智能在医疗应用场景中的伦理问题,缺乏落地医疗情境的可操作性审查标准和操作指引[14],且医疗领域的审查规范又主要以生物医学研究伦理审查和人工智能辅助诊断审查办法为主,这些基础性的条款无法满足医疗人工智能大规模应用所需要的具体伦理检查和指引,因此需要政策主导建立有针对性地伦理审查与监管机制。这要求构建专门的技术审查监管机构,设立伦理审查委员会,严格把控伦理审查人员的学科背景和专业素养[15];伦理审查机构需要建构多层次全方位的伦理风险评估和审查体系,并注重对医疗人工智能具体应用的显性风险和隐性风险进行细致研判和防范,包括医疗人工智能数据、算法、应用以及整个研发周期中相关技术设备、支撑平台和人员架构、组织流程等内容的合理性考察,根据考察情况制定一系列审查细则和防范措施,保证医疗人工智能应用阶段的伦理评估和跟进具有制度支撑和方法遵循。

再次,应对社会大众进行伦理教育,培养公众参与伦理共建的意识。在学校、企业、医疗机构开设生命医学伦理学、人工智能伦理、科技伦理和应用伦理专业课程是贯彻公民伦理教育的有效措施,学生伦理意识的提高能够推动社会整体伦理敏感度的提升,企业和医疗机构专业人员的参与也能提升从业人员应对伦理困境的能力;在患者诊疗过程中,应要求医疗人员充分介绍医疗人工智能的使用情况以保证患者知情,使患者能够充分了解到医疗人工智能的技术优势和潜藏风险,在医患的良好互动和合作中规避不良伦理影响的出现;在政策制定时,政府应搭建有效的公众参与平台,例如设立医疗人工智能伦理咨询委员会,邀请普通公众参与伦理准则的修订与评估。

最后,需要加强国际间的经验交流与治理合作。放眼世界范围内,目前医疗人工智能的伦理治理较具有参考价值的还是2021年6月28日世界卫生组织发布的《医疗卫生中人工智能的伦理治理》,除此之外,新西兰皇家学会、澳大利亚工业创新与科学部、欧盟委员会研究局、加拿大放射学家协会和加拿大医学成像技术联盟也曾就医疗人工智能的应用、风险、伦理准则、伦理框架等问题有所讨论[16],但总体而言讨论范围较小、讨论深度也有待提高,且不同国家在评估技术、识别伦理风险、制定策略上也存在着显著差异,如中国侧重于在技术研发和应用层面上对风险进行分类,美国侧重于从技术对人类个体、团体和社会组织和生态系统的危害进行风险分类,欧盟则将人工智能工具划分为最小风险、存在透明度风险、高风险和与价值观相矛盾四种[17],根据人工智能工具类型对其风险进行定义。对于中国而言,应在构建自身伦理治理体系时立足长远,充分参考和借鉴国际的先进治理经验,积极参与国际交流与合作,探索符合本国国情且兼具包容性和约束力的医疗人工智能伦理治理方案。

参考文献:

[1] World Health Organization. Ethics and governance of artificial intelligence  for health[EB/OL]. (2021-09-28)[2024-03-19]. https://www.who.int/publications/i/item/9789240029200.

[2] 张金荣,玄泽阳.医患关系技术化的伦理困境及其治理[J].道德与文明,2024,(06):150-157.

[3] 何丽. 人工智能辅助决策如何影响医患信任?——以技术不确定性为中心的考察[J]. 医学与哲学, 2023(7): 32-36.

[4] 邹文卿, 吕禹含. 智能医疗能否取代希波克拉底传统[J]. 医学与哲学, 2021, 42(18): 27.

[5] 杜丽燕.希波克拉底精神与西方人文医学理念[J].自然辩证法通讯,2006,(06):14.

[6] SHIN S, PARK H. Effect of empowerment on the quality of life of the survivors of breast cancer: The moderating effect of self-help group participation[J]. Jpn J Nurs Sci, 2017, 14(4): 311-319.

[7] DURÁN J M, JONGSMA K R. Who is afraid of black box algorithms?: On  the epistemological and ethical basis of trust in medical AI[J]. J Med  Ethics, 2021, 47: 329-335.

[8] 夏永红, 李建会. 人工智能医学诊断系统的道德责任研究——以责任空场问题为中心[J]. 中国医学伦理学, 2020, 33(7): 796-802.

[9] [美]瓦拉赫,艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:78-84.

[10] Matthias Andreas.The Responsibility Gap:Ascribing Responsibility for the Actions of Learning Automata[J].Ethics and Information Technology,2001(6):175-183.

[11] 樊春良.科技伦理治理的理论与实践[J].科学与社会,2021,11(04):33-50.

[12] 王东,张振 . 人工智能伦理风险的镜像、透视及其规避 [J].伦理学研究,2021(1):109-115.

[13] 钟晓雯, 高洁. “人工智能+医疗”的风险研判及治理路径[J]. 广西师范大学学报(哲学社会科学版), 2024(4): 29-41.

[14] 谢小萍, 何晓波, 张玲希, 等. 涉及医学人工智能研究的伦理审查要点分析[J]. 中国医学伦理学, 2021(7): 844-850.

[15] 岳远雷, 徐着雨. 医疗情感计算应用的多维困境及其法治实现[J]. 医学与哲学, 2022(19): 39-44.

[16] 张艾一, 余中光. 基于国内外政策分析的医疗人工智能伦理风险治理研究[J]. 中国医学伦理学, 2024(9): 1061-1067.

[17] SMUHA N A. The EU approach to ethics guidelines for trustworthy artificial intelligence [J]. Computer Law Review International,2019,20 (4):97-106.