随着科技的不断发展,人工智能(Artificial Intelligence,AI)技术逐渐被广泛应用于各个领域,类似于ChatGPT的聊天机器人可能已经引爆了新一轮AI革命。贝恩公司于2023年2月22日宣布与OpenAI成立全球服务联盟,OpenAI是ChatGPT、DALL·E和Codex等AI系统的研发和部署公司。律师事务所Allen & Overy已经将Harvey的AI产品运用于律师的日常工作中。
全球四大会计师事务所之一——普华永道曾于2017年发布了一份名为“探索AI革命”的全球AI报告,报告通过对不同行业的AI潜力进行评分,从而得出了“AI影响指数”,其中医疗和汽车并列第一,成为未来最易受到AI影响的行业。AI技术在提高疾病检出率、提升疾病诊断效率的同时,大大缓解了临床工作负担,是医生诊断疾病的得力助手。诊疗人工智能和无人驾驶汽车是人工智能在不同领域的应用,标志着人工智能的两种不同发展方向:相较于无人驾驶汽车而言,诊疗人工智能以人为中心,强调人与机器的协作互动,会保证人的参与和控制;而无人驾驶汽车则以机器为中心,更关心机器本身,会淡化甚至排除人的参与。[1]
依据原国家卫生计生委发布的《人工智能辅助诊断技术管理规范(2017年版)》和《人工智能辅助治疗技术管理规范(2017年版)》,本文所讨论的诊疗人工智能,是指基于人工智能理论开发、经临床试验验证有效、对于临床诊断与治疗活动提供辅助决策支持的系统。需要强调的是,对于学界讨论较多的达芬奇手术机器人,不在本文讨论的范围内,因为其所有的治疗行为均由医务人员在操作台借由机械臂完成,系统本身并没有展现任何自主性或学习能力,本质上仍然是传统的医疗设备。[2]其目前无法脱离产品属性,因而造成的侵权纠纷可以从解释论的角度参照适用医疗产品责任的相关规定。[3]
二、诊疗人工智能侵权案件的法律适用困境
诊疗人工智能侵权案件在法律适用问题上存在分歧。要解决该问题,首先应当明确由何主体承担何种侵权责任,应当根据不同的侵权责任类型来确定不同的责任承担主体。不同的责任类型对应了不同的归责原则,具体到过错责任中,应当如何认定医务人员的诊疗过失?应当由何主体承担无过错责任?以上问题共同造成了诊疗人工智能侵权案件在法律适用上的困境。
(一)诊疗人工智能的法律地位不明确
诊疗人工智能侵权案件的责任主体不明确,是由于其主客体定位尚存争议,法律地位不明。诊疗人工智能能否成为法律关系的主体,抑或是仅作为法律关系的客体,还是介于主体与客体之间的存在,将影响侵权责任的归属。对于诊疗人工智能的法律地位,学界有四种学说,即“主体说”“客体说”“折中说”和“阶段说”。
“主体说”,亦称为“拟制法律人格说”。持“主体说”观点的学者认为,人工智能不仅行为自主,而且具有超强的学习能力和理性能力,相对于动物而言,它更具有“近人性”,是一种比动物更高级的存在形式,不应简单地将人工智能看成民法上的物,进而认定其为客体。[4]法律出于调控社会关系的需要,可在理论上增加新的法律主体,法人制度已是先例,此种重构是在法律抽象的前提下,重新思考法律对社会关系的规制,是法律主体制度原理的应有之义。[5]“主体说”之内核在于承认诊疗人工智能具有法律人格,其对应的侵权责任类型更类似于“法人责任”,而建立在“客体说”基础之上的“产品责任”“医疗损害责任”等责任的适用空间则被限缩。
主张“客体说”的学者从不同路径论证人工智能的客体地位。杨立新教授提出,智能机器人的民法地位是人工类人格,虽然人工类人格带有人格的某种特征,但仍然属于物的范畴,仍然还是物的属性,还是要受到人的支配和控制,因而是民法上的客体,而不是民事主体。
在“客体说”下,“自己责任”“雇主责任”“监护人替代责任”等基于“主体说”而适用的责任存在适用之虞,而为“产品责任”“医疗损害责任”等责任留有适用之余。
“折中说”将人工智能视为自然人、法人和非法人组织以外的一种新型民事主体,享有限制民事权利能力,但仍具备客观属性。[7]此时,“主体说”下的“自己责任”“雇主责任”“监护人责任”“法人责任”,以及“客体说”下的“产品责任”“医疗损害责任”等均无力解决诊疗人工智能侵权案件的责任适用问题。
主张“阶段说”的学者认为,应当以动态发展的眼光看待人工智能,并根据发展阶段来赋予其相应的法律地位。“阶段说”的核心含义在于,当下诊疗人工智能是客体地位,适用“产品责任”“医疗损害责任”等责任;发展后期赋予其主体地位,适用“自己责任”“雇主责任”“监护人责任”“法人责任”等。
(二)适用归责原则的过程中存在问题
如前文所述,在“客观说”下存在“产品责任”“医疗损害责任”等责任。在这几种责任类型中,产品责任和医疗损害责任最能够集中体现出诊疗人工智能侵权案件中的人之要素与物之要素。
产品责任适用无过错责任原则,生产者只有举证证明自己的产品没有缺陷才能够不承担侵权责任,在一定程度上更有利于保护患者的利益。然而,一方面,生产者承担无过错原则的产品责任仅限于技术缺陷情形,而诊疗人工智能对患者产生侵害既有可能是因为生产者的技术缺陷,也有可能因为AI本身的自主行为,明确侵害来源是十分困难的;另一方面,这也对生产者经济上造成了重大压力,严重打击AI市场的主体的积极性。[8]
医疗损害责任属于过错责任,其适用过程中最大的挑战在于,在诊疗人工智能这一强有力的辅助来参与诊疗的情况下,该如何认定医务人员存在诊疗过失。诊疗人工智能并非不会出现失误。诊疗活动涉及人体组织、器官等,其复杂性决定了人工智能通过运算过程得出的判断并非真理性的结果,医务人员仍然享有自由裁量权对于诊疗人工智能的辅助,医务人员究竟该采纳机器的建议,还是坚持自己的判断?如果医务人员因为采纳或拒绝机器的建议而致害,该如何判断其是否存在诊疗过失?应当在医务人员的自主思考和人工智能的辅助定位中寻求平衡。
三、诊疗人工智能侵权案件法律适用困境之应对
(一)明确诊疗人工智能当前的客体地位
尽管人工智能能够与人类展开一定的互动,但毋庸置疑的是,现阶段人工智能基于机械读取、机械反映的运行逻辑与人类独有的意思能力仍具有本质区别,不可简单等同。法人、非法人组织乃自然人基于特定目的创设的工具性概念[9],能够为人所掌控,存在之目的完全是为人服务;而人工智能已进入深度学习阶段,我们无法确保人工智能未来能够完全服从人的意志,在冒然赋予人工智能以主体资格前,应当认识到此非最佳选择和唯一路径。
“折中说”下的观点将人工智能视为一种新型民事主体,享有部分人格,但仍具备客观属性,显然自相矛盾,并且没有为该新型主体构建相应的制度,实际上不具备实践意义和参考价值。
本文持阶段说,认为法律是社会的产物,应以社会为基础。法律制度应当根据诊疗人工智能的发展来作出相应的调适。当前的诊疗人工智能虽具有一定的学习能力,但并无自我意识,仍属于“物”的范畴,不具备“人”的属性。在侵权法语境下,诊疗人工智能是产品,进一步讲,其属于医疗器械。《医疗器械监督管理条例》第103条规定:医疗器械,是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件。因此,现阶段,诊疗人工智能是医疗器械。
在未来,随着科学技术的发展,将诊疗人工智能继续定义为“物”是否合适,有待讨论,法律也应当随着人工智能的发展进程作出相应调适。但无论如何,现阶段诊疗人工智能的物的属性不会改变,其客体地位也不应动摇。
(二)明确不同侵权责任的具体适用规则
在厘清诊疗人工智能当前的客体地位后,就需要相关制度对诊疗人工智能侵权案件进行规制。可以应用当前《民法典》侵权责任编的规定进行责任认定。
1.产品责任
仅因产品自身缺陷而导致的损害,适用产品责任规则,生产者和医疗机构承担无过错责任。患者若向医疗机构请求赔偿,医疗机构赔偿后,有权向生产者追偿,此谓不真正连带责任。应当注意的是,产品责任的责任主体不仅局限于生产者,销售者、运输者等从生产开始到产品售出后的整个过程中涉及的所有主体都可能对产品缺陷负有一定责任,但销售者和运输者等第三人承担责任适用过错责任原则。如果产品的缺陷是因销售者、运输者等的过错所致的,则生产者或医疗机构在承担无过错责任后,可以向有过错的销售者、运输者追偿。
若非因产品自身缺陷而导致的损害,如因警示缺陷致害,则应当适用过错责任原则。警示缺陷是指生产者没有提供适当的警示与说明,致使产品存在不合理危险。其焦点在于生产者是否作出警告以及警告是否充分,评判的关键在于行为而非产品,因此适用过错责任原则具有合理性。此外,生产者在医疗人工智能领域的警示义务还应受到“博学中间人”原则的限制。即当熟练的专业人员站在产品生产者与最终消费者之间时,产品责任中生产者的因果链可以被打破。因此,生产者在对医疗机构及医务人员进行充分合理的警示后,即视为完成警示义务,可将承担产品责任的风险卸下。[10]这在一定程度上有利于缓和生产者的经济压力。
2.医疗损害责任
前文已经提到,在诊疗人工智能这一强有力的辅助来参与诊疗的情况下,如果医务人员因为采纳或拒绝机器的建议而致害,该如何判断其是否存在诊疗过失的问题。笔者认为,基于诊疗人工智能的客体属性,在人机关系中,医务人员应当始终占据主导地位,诊疗人工智能在诊疗活动中的辅助性地位不会改变。
首先,应当保障医务人员的主导地位,坚持诊疗人工智能的辅助性地位。尽管盲目依赖人工智能的判断能够提高诊疗效率,解放医务人员,但长此以往,医务人员的专业能力将严重退化,甚至医学发展都将遭到严重阻碍,最终损害的还是患者利益。并且,高超的诊疗技术仅代表医务人员专业能力一项,而细致的人文关怀也是诊疗活动的重要组成部分。医务人员在诊疗过程中与患者充分沟通,彼此信任,这是诊疗人工智能无法达到的效果。其次,应当充分尊重诊疗人工智能的判断。因此医务人员应当在诊疗人工智能作出判断后,进行二次判断。尽管此项要求会增加各项成本,但这是尊重生命健康和保障医学发展的必然要求,我们绝对无法容忍诊疗活动过程中没有医务人员的监督。
既然医务人员在诊疗活动中居于主导地位,需要对机器的结论作出二次判断,那么其对于机器的错误判断就有排除义务。即使机器的错误判断是因产品自身缺陷造成的,也不当然排除医疗损害责任的适用。具体而言,若医务人员存在故意或重大过失,那么应当适用医疗损害责任;反之,若医务人员已尽到注意义务或仅存在一般过失而采纳了缺陷产品的判断,则不能将责任施加于医务人员,因为这未超出诊疗活动中固然存在的风险之范围。在此种情形下,应当由生产者与医疗机构共同承担产品责任,医疗机构承担责任后可以向生产者追偿。
此外,《民法典》第1221条确定了我国判断医疗过错的基本标准,即“当时的医疗水平”,也就是从事诊疗活动之时一个合格的医务人员应具有的医疗水平。[11]之所以将“当时”确定为从事诊疗活动之时,而非患者提起医疗赔偿诉讼之时,是因为医务人员的专业知识水平是随着医学科学的发展而不断丰富提高的,以事后的医学水平来苛求从事诊疗活动之时的医务人员,显然不合理。然而,这种判断标准遭到了人工智能的冲击。人类的学习能力是有限的,而诊疗人工智能的一大优势就是具有超强的学习能力。沃森能够在17秒内阅读3469本医学专著、248000篇论文、69种治疗方案、61540次试验数据、106000份临床报告。[12]因此在未来,法院可能会要求医务人员在诊疗人工智能的辅助下及时学习本领域内的最新研究成果,仅依据当时医疗标准来判断诊疗过失的方法将受到挑战。
四、结语
诊疗人工智能作为一项具有重要意义的新技术,大大提高了诊疗活动的效率,能够为患者提供精准高效的治疗服务,具有极大的社会价值,但也为现行法律制度的适用带来一系列挑战。一方面,成文法存在滞后性,现有的法律体系中还没有对诊疗人工智能侵权问题作出具体规定;另一方面,法律具有一定的预见性,人工智能作为科技的新兴产物,将来必定会引发更多问题,引起更广泛的关注。在当下的弱人工智能阶段,明确诊疗人工智能的客体地位有利于维护现有法律体系的稳定。在此基础上,为了平衡生产者、使用者等各方主体的利益,厘清诊疗人工智能侵权案件中各种侵权责任的适用情形,具有重要意义。不论如何,最终目的都是希望医疗事业能够在完善的制度框架下不断发展,实现社会安定和谐。
[1] 参见于海防 《人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间》,《法学》 2019年第6期,第20页。
[2] 参见郑志峰 《诊疗人工智能的医疗损害责任》,《中国法学》2023年第1期,第205页。
[3] 参见丁璐 《人工智能体医疗损害责任分析——以达芬奇手术机器人为例》,《北京化工大学学报:社会科学版》2020年第1期,第68页。
[4] 参见张志坚 《论人工智能的电子法人地位》,《现代法学》2019年第5期,第77页。
[5] 参见付子堂,赵译超 《智能机器人法律地位的审视》,《人工智能法学研究》2018年第1期,第49页。
[6] 参见杨立新 《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,《求是学刊》2018年第4期,第92页。
[7] 参见石冠彬 《人工智能民事主体资格论:不同路径的价值选择》,《西南民族大学学报》2019年第12期,第99页。
[8] 参见谈在祥 《医疗人工智能侵权行为法律规制研究》,《医学与哲学》2022年第14期,第62页。
[9] 参见朱庆育 《民法总论》,北京大学出版社2016年版,第417-418页。
[10] 参见王轶晗等 《医疗人工智能侵权责任法律问题研究》,《云南师范大学学报(社会科学版)》2020年第3期,第107页。
[11] 参见程啸 《侵权责任法(第三版)》,法律出版社2021年版,第644页。
[12] 参见AI科技大本营 《人工智能产业路线图》,《大数据时代》2018年第4期,第36页。