一、医疗人工智能定义
我国目前还没有从法律上来定义医疗人工智能,从政策和法律法规来看,2015年至今,有一百余项与人工智能相关的国家级政策被发布。这些政策文件涵盖了人工智能的诸多方面,其中涉及医疗领域的政策也有十余个,对于该领域的技术发展、行业规范与监管具有重要的指导作用。可以看出,国家层面支持鼓励人工智能技术在医疗领域发挥积极性的建设作用,但其中并未在法律层面对医疗人工智能进行定义。
本文将本文所研究的医疗人工智能定义为:医疗人工智能是医疗卫生技术和通用信息技术深度融合发展的产物,具有深度学习能力和计算能力,对患者提供精准医疗服务,且具有一定的自主性,进行医疗活动的高端智能机器人。
二、医疗人工智能侵权责任主体的认定
(一)产品责任下的侵权责任主体认定
研发设计者承担责任。医疗人工智能的独特性在于,其设计者和生产者可能是两个完全独立的实体。将研发设计者视为责任主体的一部分是合理的,这有助于提升他们的责任感,促使他们在工作中更加小心谨慎,从而减少产品可能引发的侵权行为。
生产者承担责任。从比较法来看,《德国产品责任法》认为,包括上游供应链与实际的产品生产商都属于产品生产者,在其产品出现侵权事件时,所有生产者都需要承担责任,与其实际分工没有关系[1]。
使用者承担责任。在处理医疗人工智能时,使用者确实处于一种掌控和支配的状态,他们是直接控制潜在风险的人。法律应当明确规定使用者在操作医疗人工智能产品时的标准操作程序和注意事项,以确保他们能够充分意识到自己的责任,并采取适当措施预防事故的发生。
(二)医疗损害责任下的侵权主体
产品责任法并不能解决所有医疗人工智能引起的侵权问题。在现代医疗体系中,诊疗行为已不再局限于个别医生的技能,而是涉及到一个复杂的系统工程,包括数据收集审核、设备维护、消毒程序以及专业人员的培训等多个环节。在医疗人工智能应用中,若发生侵权事件,若查明医疗机构未能履行合理的使用义务,或者提供的诊疗活动未达到应有的注意标准,即可认定医疗机构存在过失,因而应当承担相应的侵权责任。
三、医疗人工智能侵权责任制度面对的挑战
(一)医疗人工智能的法律地位不明确
韦弗博士指出,几乎现行所有的法律制度预设的一个根本前提就是只有人类才能做出决定[2]。然而,人工智能的出现挑战了以人类行为为中心的社会规则预设。人工智能不仅能够独立作出判断和决策,还能持续学习以适应新的需求。在这种背景下,具有高度“拟人”属性的人工智能能被视为“人类”吗?如果不能,它是否只是普通的“物”?
(二)适用产品责任存在认定难问题
1.医疗人工智能不是典型意义上的医疗产品。
医疗人工智能具有自主运行能力和自我学习能力,是其与传统意义上的医疗产品的根本区别。[3]对于哪些产品属于医疗产品,并没有统一规定,学界认为医疗产品主要有以下四种:药品、消毒药剂、医疗器械、血液及血液制品[4]。然而,医疗人工智能具有高度“拟人”的特征,从这个角度来说,医疗人工智能不是典型意义上的医疗产品。
2.医疗人工智能产品缺陷难以证明。
承担产品责任的前提是产品存在缺陷,产品缺陷是产品责任的核心。根据《产品质量法》第 46 条的规定,缺陷的判断标包括一般标准和法定标准:一般标准是指不合理危险,主要包括消费者期待标准和风险效用标准;[5]法定标准是指国家标准和行业标准。[6]
医疗人工智能具有自我学习能力,使得产品缺陷的认定异常困难。在医疗人工智能生产的过程中,程序员只是设定了智能学习规则,至于具体的学习过程、运行过程都是由医疗人工智能独立判断和决策的。[7]因此,当医疗人工智能给出错误的诊疗决策时,很有可能是其自主决策时出现了故障,很难说是程序员编写的代码存在问题,这使得缺陷的认定非常困难。
(三)适用医疗损害责任存在认定难问题
1.责任主体不再清晰。
随着医疗人工智能的不断发展,其自主性特征将展现得更为充分,在医疗活动中的参与度将越来越高,未来其可能在医疗活动中占据主导地位。[8]当医疗人工智能逐渐取代医务人员实施医疗行为,行为主体不再是医务人员,而是医疗人工智能,这就意味着由医疗机构对医务人员所造成的损害责任承担替代责任的医疗损害责任规则面临适用难题。
2.过错难以认定。
通说认为,医疗损害责任的归责原则是过错责任原则。医疗机构或医务人员存在过错主要是指过失,即未尽到一个合格医务人员的应有义务,包括误诊、漏诊、手术不当、处方错误等等。[9]医疗行为本身具有探索性、不确定性、裁量性的特点,[10]导致医疗损害责任的过错要件难以判断,我国司法实践中,对于医疗行为是否规范一般通过“同行评价”的方式予以查明,主要依赖医疗损害鉴定意见。[11]医疗人工智能的介入,使医疗损害责任的过错要件判断变得更加复杂和难以认定。
3.因果关系难以认定。
医疗人工智能涉及的主体复杂多样,增加了因果关系认定的难度。医疗人工智能涉及数据提供者、软件开发者、网络支持方,以及人工智能生产者、销售者、所有权人、管理人、使用人等主体。这种复杂的多方参与特点,使得因果关系要件的认定难度增加。
四、完善医疗人工智能侵权责任相关法律制度
(一)产品责任范畴内的适度完善
1.产品缺陷的认定与完善
亟需制定国家标准和行业标准。当前,我国尚缺乏针对医疗人工智能的专门规范,这给缺陷认定带来了障碍。国家及监管部门应加速制定包含医疗人工智能在内的人工智能产品的规范标准,明确各种潜在缺陷的定义,为缺陷认定提供明确的参照。
2.调适举证责任分配方式
现行《民事诉讼法》下,要求受害人证明缺陷极为困难,因为他们通常缺乏必要的技术知识。而研发者和生产者掌握更多信息,应承担起举证责任。一旦受害人证明了损害事实,生产者和医疗机构则需证明产品无缺陷或损害与产品使用无关,否则将承担相应责任。
(二)医疗损害责任规则的完善
1.过错的判定
在医疗人工智能的应用场景中,医院及医护人员必须恪守高度注意义务,这亦可称之为“渎职”责任。当他们在使用人工智能辅助诊疗时,如果没有遵守这一义务,导致患者受损,便可能被追究责任。认定是否违反高度注意义务,应参照当时的医疗技术水平。
2.因果关系认定的完善
鉴于医疗人工智能的高度复杂性和专业性,可以考虑采纳美国等国家的做法,在这类产品中植入类似飞行记录器(黑匣子)的机制,详尽记录其运作全过程。一旦发生侵权事件,便可依据这些记录来分析因果关系。
作者简介:李蕊含(2000-),女,汉族,河南安阳人,硕士研究生在读,单位:哈尔滨商业大学法学院,研究方向:民商法学。