• 收藏
  • 加入书签
添加成功
收藏成功
分享

医疗人工智能侵权的法律挑战与应对研究

廖智杰
  
学术与研究
2024年5期
华东政法大学国际法学院 上海 200000

摘 要  :随着人工智能在医疗领域的广泛应用,由其引发的侵权案件数量逐年递增,但现阶段人工智能主客体定位尚不明晰、侵权事实与法律规范涵摄失灵,相关侵权责任认定陷入困境。单独适用产品责任、医疗技术损害责任抑或高度危险责任,均无法为医疗人工智能侵权责任提供准确的归责模型。因此,在借鉴欧美人工智能领域的探索经验的基础上,提出针对不同的人工智能侵权情形适用差别化归责原则,并尝试设置人工智能监管机构及行业标准。

关键词  医疗法律  人工智能  医疗侵权责任  产品责任

一、问题的提出

医疗人工智能则指被设计开发并应用于医疗领域的人工智能技术,主要包括医疗影像、辅助诊断、疾病风险分析预测、医疗机器人、药物研发、医疗管理等。就域外而言,医疗人工智能起步早,发展迅猛,如达·芬奇(Da Vinci)手术机器人以及沃森(Watson)人工智能系统。但医疗人工智能侵权案件却随着人工智能的临床化呈现出上升的趋势,如美国的外科手术机器人在2000-2013年间,至少造成1391起致害事件,并导致144人死亡。

就我国而言,医疗人工智能侵权的隐忧亦逐渐凸显并实质化。以达·芬奇手术机器人为例,浙大一院的达·芬奇机器人单机手术量蝉联全球第一。截至2016年末,该院的医疗机器人共完成1957台手术,系全球手术密度最大的手术机器人。笔者通过中国裁判文书网,将“达·芬奇”“医疗”“侵权”作为关键词,2017-2022年作为区间进行检索,共计检索出相关判决书24份,并呈现递增趋势。考虑到医疗侵权案件的复杂性,加之文书上网的局限性,实际案件数量远超于此。见微知著,医疗人工智能侵权逐渐成为人工智能领域的焦点问题之一。

随着医疗人工智能的快速发展,不断出现的智能医疗机器人等实质性地改变了现有“医务人员”的主体认知,从而对现有的医疗法律责任提出了许多理论和现实挑战。例如,医疗人工智能诊断失误以及手术损害等不良事件的发生引发理论界和实务界对医疗人工智能的风险责任规制、医疗人工智能的法律地位、医疗损害的责任承担等法律问题展开热议。法律在积极回应科技发展需求的同时,也亟须应对技术革新带来的潜在风险。

医疗人工智能的发展不可避免地对现有的医疗法律秩序构成挑战,形成了对医疗人工智能主体资格和法律责任的全面讨论,特别是医疗人工智能造成医疗损害事件时,应当由谁承担法律后果,成为了医疗法律责任研究应当关注的重点。

二、传统医疗法律责任面临的挑战

关于医疗法律责任,我国《民法典》侵权责任编按照不同的致害原因和归责原则,分成了医疗技术损害责任、医疗伦理损害责任以及医疗产品责任三种基本类型。从侵权责任法的范畴来看,医疗损害责任属于一般侵权行为,其构成要件主要分为以下四个方面:第一,医疗机构或医务人员诊疗过程中的诊疗行为具有违法性;第二,患者遭受实际损害;第三,诊疗行为与患者损害之间具有因果关系;第四,医疗机构及其医务人员主观上具有过错。据此,笔者将从医疗人工智能的法律主题适格,过错责任制度下的适用困境以及医疗损害因果关系的认定等三个方面展开分析。

(1)医疗人工智能的法律主体适格问题

现行医疗法律责任理论下的责任主体主要包括医务人员和医疗机构,不涵盖人工智能。但是,随着人工智能技术的快速发展,智能医生和机器人护士的认知能力,学习能力和动手能力将有较大的蜕变。特别是当人工智能进入强人工智能和超人工智能阶段后,医疗人工智能将具有主体意识和独立的思考能力,能够自主判断和决策时,在某些医疗操作方面更胜一筹时,将从客体完成主体身份的转变,此时医疗人工智能在法律上应当识别为附属物还是具有独立法律人格的主体,成为探讨人工智能背景下医疗法律责任的元命题。目前,学界主要有两派观点,支持者认为,在强人工智能背景下,人类只是扮演一名监督者的角色,若其监督行为不存在过错或不当之处,且人工智能产品本身也不存在缺陷,那么,应当赋予人工智能法律主体资格。但现行的民法理论认为,只有具有自由意志支配能力的人才可以对其行为负责,否则其行为不具备法律上的效果,即法的人格者等于权利能力者。因而持相反观点的学者认为,主客体的自然法规则必须遵守,人工智能只能被定格为无法反应与确证自我的客观类存在物,不能将其人格化。笔者认为,目前由于技术限制,人工智能仍无法独立于算法产生自主意识,因此不具备赋予法律人格的条件。

(2)医疗人工智能的过错责任适用问题

现行的以人的理性和自由意志为核心的过错归责理论,包括故意和过失两种状态在人工智能背景下却备受挑战。这使得以行为人主观上 “明知”或“应知”的注意义务为前提的过错法律责任难以适用因人工智能的使用而产生的侵权行为,肇因于以智能机器人为代表的人工智能是自主独立运作,不是基于人的故意或者过失。那么,此时,是归责于人工智能的设计者、开发者,亦或是生产者、使用者的责任,还是说可以直接归责于人工智能本身呢?我们试想,在这样的一个现实场景中:一位人工智能外科医生在执行常规的肿瘤切除手术时,突然遇到某一动脉开裂,于是,智能医生决定去修补动脉,监督这台手术的人类医生同意该决定,智能医生修补好动脉后,病人因出血太多,所以,智能医生决定停止实施肿瘤切除手术,监督医生表示同意。但病人不得不因此花费更多的住院治疗费用以及肿瘤未能及时切除而造成的进一步病变的可能。经事后评估,智能医生的决定没有任何错误,监督医生也不存在失职之处。对于因此而给患者带来的相应损失及新增风险的赔偿责任,应当由谁承担?笔者认为,由于人工智能在是否具备独立法律人格有争议的情况下,探讨其本身是否存在过错是没有客观意义的,因此这一问题会转换为追究其背后人的责任,即医疗人工智能的设计者,生产者,医疗机构或医务人员。目前的直接依据则是按照《产品责任法》严格责任原则规制,但是医疗人工智能造成的损害可能是设计生产过程中技术缺陷,也可能是人工智能系统的运作中出现的故障,现实中对于该事实的认定无法形成有效判断。

(3)医疗人工智能造成损害的因果关系认定问题

随着医疗人工智能的发展,以智能机器人医生为代表的具有独立思考决策能力的人工智能从事医疗诊疗活动,其所产生侵权后果的原因复杂多样,有可能是制造设计中存在缺陷,也有可能是销售使用中存在管理不当,还有可能是医疗人工智能自身所作出的判断与决定,这就给医疗损害中的因果关系认定带来巨大挑战。具体主要表现在: 一方面,应用于医疗领域的人工智能自身缺陷难以证明。依据《产品质量法》的相关规定,生产者对产品缺陷所造成的损害承担的是无过错责任,而认定产品缺陷的标准主要有二: 一是产品是否存在危及人身或财产安全的不合理危险; 二是产品是否符合保障人体健康、人身财产安全的国家标准或行业标准。按照民事诉讼法“谁主张,谁举证”原则,作为患者的受害人很难证明对其进行诊疗的医疗人工智能存在《产品质量法》规定的缺陷,医疗人工智能高度自主性,导致侵害事实难以归咎于设计者、生产者。同时,目前尚未制定医疗人工智能技术在保障人体健康、人身财产安全方面的国家标准或行业标准,使得受害人在遭受损害后,无从援引相关标准以证明相关人工智能产品存在缺陷。另一方面,现代医疗人工智能系统的核心技术在于深度学习和超级算法,但深度学习在广泛快速学习的同时,也存在“不受前提预设、经验法则、传统智慧等因素限制”,造成智能机器人医生的生产者、设计者难以预见及控制未来是否会出现相应错误。关于人工智能的算法模型和决策逻辑,研发人员尚且存在解释困难,更遑论法官、律师等法律工作者,这进一步加大了因果关系的认定难度。

三、我国人工智能医疗法律责任制度的完善路径

医疗人工智能的兴起与应用将对现行的医疗损害责任制度提出现实挑战。这些挑战,既可能造成接受医疗人工智能诊疗的患者所遭受的损害难以得到完整补偿,也会给生产商、制造商、医疗机构带来责任分担不确定,最终影响技术进步和社会发展。因此,笔者将从域外立法经验的借鉴和建设人工智能监管机构和行业标准等角度出发,探讨我国人工智能医疗法律责任的完善路径。

(1)构建人工智能时代的民事法律责任新规则

在欧盟看来,以智能机器人为代表的人工智能与人类此前开发利用的机器工具是完全不同的,它们通过深度学习具备自主性和认知特征,其行为难以为人类所预测和控制,造成传统的民事法律责任规则难以适用,需要重新制定新的规制规则。欧盟认为,这种规则应以智能机器人为其自身行为承担责任为出发点,通过解决人工智能的法律责任主体地位来重构新的规则。为此,在其立法建议第50(f)项中就提出,从长远角度考虑,有必要确立智能机器人的特殊地位,至少应当确保技术系统最复杂的智能机器人拥有“电子人”的独立地位,使其有资格担负自身所致损害的责任,配以登记公示制度,智能机器人负责弥补自身所引起的侵害,以及它自主决定的、与第三方独立交往的情形。笔者认为,既然智能机器人的侵权行为造成损害后果,就应当追究其相应的主体责任,以补偿受害人。但责任主体所负责任范围、大小应与其赋予智能机器人自主性等级相统一,智能机器人的自主能动性与其他责任主体应负责任成反比。简单来说,人工智能机器人自我学习和决策的能力越强,其他与人工智能技术利益相关的主体(如制造商、所有人、使用者等) 所担责任越少。

在现阶段,尚不需要考虑是否应当赋予医疗人工智能以独立的主体资格,一则是医疗人工智能是由人类设计与生产出来的,当前阶段人工智能所能完成的各项任务或采取的各种操作均取决于人类研发设计中事先制定好的代码或程序,亦即人工智能还不具备独立思考和独立决策的能力,尚处在人类的掌控范围之内,而且完全自主的医疗人工智能在短期内尚不会出现,因此,并不需要人工智能独立承担相应的民事责任。因此解决问题的核心是对于医疗人工智能引发的法律责任承担问题。笔者认为,可以综合运用现有的法律责任归责模式。首先,目前医疗人工智能通常是作为医生“助手”的身份出现,尚未达到具有独立自主自由意志的智能程度,也就是说,当前医疗人工智能更多表现为一种工具手段,对因其使用造成的医疗侵权责任,可适用《民法典》侵权责任编的规定,对医疗机构或医务人员在人工智能使用过程中因操作或管理不当致使患者遭受损害的,应当由医疗机构承担过错责任。其次,现阶段的医疗人工智能尚属于人类研发生产的产品范畴,若因医疗人工智能自身程序瑕疵或设计缺陷导致的损害,应由其设计者、生产者按照《产品质量法》的规定承担无过错的产品瑕疵责任,并可在司法实践中对证明责任进行倾斜分配,将人工智能是否存在缺陷、缺陷与损害事实之间因果关系等证明责任分配给设计者、生产者或医疗机构承担。最后,随着人工智能的高度发展,可能会在超级算法和深度学习技术的深度应用下产生具有独立自主意识能力的人工智能。但这是一种伴随技术的市场化应用而产生的新生事物,市场化的运行方式要求医疗人工智能的生产者、制造者、使用者在享受其利益的同时也要具有风险承担的能力,风险的不可预测性契合高度危险责任的适用,亦符合《民法典》在社会发展与科技进步之间所做的立法选择。

(2)建立人工智能监管机构和行业标准

针对医疗人工智能监管机构及监管标准,可借鉴美国食品药品监督管理局( FDA) 创新设立的“数字医疗软件预认证计划( Precertification Program) ”的监管方法,通过设置专门负责医疗设备及科技监管的机构CDRH ( Center for Devices and Radiological Health),按照前期试点项目中确定的客观标准来“预先认证”符合条件的智能医疗开发主体。但是,该项目现存最大的问题在于智能医疗管理标准有待进一步完善。笔者认为,在医疗人工智能产品越来越多、技术参数越来越复杂的背景下,有必要建立专门的人工智能监管机构,建立安全标准和伦理规则,实现对人工智能行业的监督管理和风险预测。一方面,可以保证人工智能的产品质量,保证投入到医疗卫生事业中的智能机器人医生等具有保障人身安全的可靠性,增进患者采用医疗人工智能的信心; 另一方面,基于人工智能的安全标准和伦理准则,也可以保证差别化医疗法律责任承担的实现。对于符合一定生产标准并经过审查的医疗人工智能,生产商、制造商实质上只承担有限的产品责任,作为受害人的患者也可以援引相应的标准和准则证明涉事医疗人工智能存在“缺陷”之处,对于没有经过审批的医疗人工智能,相关主体应当承担严格责任,并且相互间是连带责任关系。

四、结语

医疗人工智能的产生和发展,一方面,给医疗领域实现精准化、个性化、高质量的诊断和治疗带来希望;另一方面,也因其参与诊疗活动而给医疗损害法律责任的分配与承担提出了现实挑战。在当前人工智能尚未全面进入强人工智能的背景下,人工智能产品尚处于人类的掌握和控制阶段,提出赋予人工智能法律责任主体地位尚不必要。当前,针对人工智能在医学领域的应用,应当坚持以“前端预防”代替“末端惩治”的原则,通过现有法律制度的整体运用和法律原则的系统解释,在结合医疗责任风险与利益的基础上,按照生产者、销售者、医疗机构或医务人员等相关主体不同的注意义务关系去认定各方责任,以体系性的法律规制来有效应对人工智能所带来的挑战。

林暖暖. 美国无过错医疗责任改革:制度缘起与法理启示[J].中国社会科学,2010(02):177-184.

中国新闻网 2016年达芬奇机器人单机手术量全球第一花落浙江 https://www.chinanews.com/m/jk/2017/01-03/8112764.shtml

范进学. 人工智能法律主体论:现在与未来[J].政法论丛,2022(03):3-17.

张力, 陈鹏. 机器人“人格”理论批判与人工智能物的法律规制[J].学术界,2018(12):53-75.

李政权. 人工智能时代的法律责任理论审思——以智能机器人为切入点[J].大连理工大学学报(社会科学版),2019,40(05):78-87..

Beck S. The problem of ascribing legal responsibility in the case of robotics[J]. AI & society, 2016, 31: 473-481.

贾章范, 张建文. 智能医疗机器人侵权的归责进路与制度构建[J].长春理工大学学报(社会科学版),2018,31(04):35-41.

*本文暂不支持打印功能

monitor