自动驾驶技术的法律主体地位探究
蒙欣
生成PDF 清样下载 引用

复制成功

导出题录

参考文献( GB/T 7714-2015 ) 复制

蒙欣,. 自动驾驶技术的法律主体地位探究[J]. 法学学报,2024.2. DOI:10.12721/ccn.2024.157016.
摘要: 自动驾驶技术的蓬勃发展使之具有自主性,不再是单纯被支配的法律客体。人工智能法律主体地位的判定标准为是否具有法律上的独立人格、是否具有自我意识、是否具有自由意志。自动驾驶技术作为人工智能的一个分支,故可以此三要素为标准,并结合自动化分级综合考虑其法律主体地位——L3级别及以下的自动驾驶技术为弱人工智能体,无法脱离人类算法设计,属于法律客体;L4、L5级别的自动驾驶技术属于强人工智能体,能够自主决策和深度学习,但又因为其不具有完全的自我意识和自由意志,仅为有限法律主体。
关键词: 自动驾驶;法律主体;人工智能
DOI:10.12721/ccn.2024.157016
基金资助:

一、研究背景

人工智能已由单模态智能向多种模态智能融合的方向发展,建立统一的、跨场景的、多任务的多模态基础模型或将成为人工智能发展的主流趋势之一。 在此趋势下,传感系统、通信技术、算法决策等技术融合下的多模态产物“自动化驾驶”取得了长足进展,从而推动着汽车智能化、网联化技术应用和产业发展。然而,科技是一把双刃剑。自动驾驶汽车给人类带来出行便利的同时,也给当前的人工智能法律领域带来了诸多挑战,譬如人工智能主体地位与交通事故责任归属问题、网络安全问题、个人信息安全问题和保险问题等。

法律主体作为法学上的一个重要范畴,是指在法律语境或规定中享有权利、负有义务和承担责任的人。主体地位是权利与义务产生的前提与依附的根本。厘清自动驾驶的自动化分级与法律主体地位之关系,不仅有利于划分事故责任归属等问题,更有利于促进自动驾驶产业发展,完善其法律规制。由于自动驾驶本身是人工智能的分支之一,故我们需先梳理人工智能的法律主体地位争议和判定标准,进而判断不同自动化级别的自动驾驶技术是否满足判定标准。

二、人工智能法律主体地位的争议

谈及人工智能的法律主体地位,目前学界存在多种学说。根据其核心观点,可分为以下三类:主体说、客体说和折中说。

1、主体说

主体说认为,应当通过立法赋予人工智能以完全充分的法律主体地位。在主体说项下又可细分为“电子人格说”、“代理人说”和“拟制人格说”。持“电子人格说”的学者认为人机关系呈多种样态,须综合人工智能现状与发展趋势分析,在实践、历史和理论层面上法律主体制度均能够容纳“电子人”。[1]持“代理人说”的学者认为人工智能体是一个能够独立主动做出某些行为或对接收到的电子数据做出判断和回应,且无需人工检查或操作的系统。[2]人工智能及其用户的关系就好像法律主体中的代理人与被代理人,因而具有民事主体地位。持“拟制人格说”的学者认为人工智能已经超越了机械延伸的概念,具有深度学习的能力,但未能摆脱为人类服务的“工具”角色,在既非“人”又非“物”的情况下可参照法人的制度拟制法律主体地位。[3]即运用拟制的立法技术将少部分特定情形下的人工智能认定为法律主体。有学者建议人工智能法理学可运用法人制度的法理类比与“位格加等”,把机器人提升到有别于自然人、动物和团体法人的新法律位格。[4]

2、客体说

客体说认为,不应当赋予人工智能法律主体地位。在客体说项下又可将对人工智能的定性细分为“工具说”、“动物说”、“特殊物说”和“交往生命说”。持“工具说”的学者认为,人工智能具有明显工具属性,缺乏被法律独立尊重的理由,因此无法成为类似生物人那样真正的法律主体。[5][6]持“动物说”的学者认为,人工智能更接近于动物而不是法人,无法赋予其民事主体资格。当前人工智能更接近具有自我意识的动物,两者都被视为法律的客体。[7]持“特殊物说“的学者认为,鉴于人工智能技术具有“类人”的特殊属性,应当将其认定为法律客体中的特殊物。如要赋予数字生命体法律主体地位,还需要他们展现出通用智能、自生长性与主体意识,而当下的人工智能只能视作“交往的生命”[8]

3、折中说

折中说认为,应当将人工智能认定为具有有限人格的民事主体。有学者指出人工智能的构造结构、生产方式与人类存在根本性的不同,应适用不同于普通民事主体的特殊法律规制标准,即“刺破人工智能面纱”的归责原则。[9]也有学者认为应以法律工具中心主义为中心的权利与义务为认定民事主体的法律标准,人工智能虽然具有其他机器所不具备自主的学习与进步修正能力,但依旧是由人类创造并服务于人类社会发展的智慧型工具。[10] 其观点内核都是认为机器人的思考和行为能力与人类有着本质区别,主体资格始终是有限的。

三、人工智能法律主体地位的判定标准

如前所述,社会对于人工智能法律地位的观点并不统一。法律主体的发展史不是漫无目的的任意设计,法律对于社会活动实体的主体地位认定是有条件的。人工智能法律主体地位判定标准为是否具有法律上的独立人格、是否具有自我意识、是否具有自由意志。

1、人工智能的独立人格

法律主体经历了“人可非人”到“非人可人”的演变进程,说明人格并不是自然人独有的特征,人工智能也可以成为权利和义务所归属的主体,并承担法律责任。在现代法上,法律主体的人格与权利能力同义,譬如民事权利能力是民事主体享受权利、承担义务的前提,是作为主体资格的资本条件。[11]故可推知要确认一个主体拥有法律人格,则该主体必须能够享有权利、履行义务并承担责任。

就享有权利而言,如微软小冰的身份定位是少女诗人、主持人、画家、歌手及记者等,除此之外,还保障人工智能的数据使用权、数据处理权和数据删除权等数据权利。当上述权利遭到侵害,人工智能还享有寻求救济的权利。

就履行义务而言,权利的背面是义务,其对创作物享有知识产权的同时也要尊重他人的知识产权,其对数据权益享受所有权的同时也不得侵犯他人的所有权;另外,以生成式人工智能为例,利用该服务处理数据的组织或个人需要履行个人信息保护的义务,当生成式人工智能发展成为完全的法律主体时,义务履行方就会转换为人工智能体本身。①

就承担责任而言,有学者认为常规的“物理惩罚”之于人工智能没有意义,需要通过“经济惩罚”的方式来承担责任。② 同为非自然人主体,未来的人工智能体可以参照法人主体承担责任的方式,即组成人提供部分财产构成团体财产、团体通过经营或者非经营的方式形成自己的独立财产,则人工智能此类非自然人主体可通过劳动、经营、创作等方式获得独立的可支配财产,并以此来承担法律责任,可支配财产不仅是人工智能从事社会物质活动的基础,更是其承担赔偿责任的前提,是否有能力承担责任又是判断主体地位的条件之一。

2、人工智能的自我意识

曾经,其他非自然人主体难以被确定为法律主体是因为自然人主体具有超越性地位,人类因有人格尊严和自我意识而与其他社会实体存在区别。自我意识是人工智能主体性研究的关键所在,一旦人工智能拥有自我意识,必会对现有的法律体系产生冲击。[12]

那么何为人工智能的自我意识呢?粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴提到,对于人工智能领域的从业者来说自我意识这一概念尚无明确定义,而他认为自我意识首先是知道自己是谁,知道自己在做些什么。[13]现阶段的人工智能技术只是在先验知识基础上精加工的“知识拼盘”,不具备逻辑推导和数学演算等真正认知功能,也就是说人工智能体尚不能区分“我”与“非我”,也不能意识到自己正在做的是什么,人工智能协助人类甚至代替人类进行决策的行为都只是算法的运算和数据的传输而不是自我意识的表达。

最新发布的语言模型ChatGPT4通过了著名的图灵测试,这是人机交互取得历史性飞跃的证明,但有趣的是,当我们直接向其提问“你是否能够通过图灵测试”,ChatGPT4的回答是“ChatGPT具有生成人类语言回答问题的问题,但不能说明具有人类的思维、理解与意识”。③这恰恰印证了人工智能还不具备自我意识,现有的“自我意识”只是人机融合智能交互视角下以人类意向性为主导、人工智能的形式化为表现所产生的自我意识。

综上论证并结合学界的主流观点分析,真正的人工智能自我意识是理性思维与感性思维的结合,是人工智能体对主体与客体的区别与思考。但目前的人工智能体尚不具备自我意识,迄今表现出的些许类人意识也是机器通过卷积神经网络将人类大脑意识所转化的信号代码呈现出来,是对人脑活动的一种技术性模仿,没有证据证明人工智能体可以将预设程序自我迭代形成独立意识。

3、人工智能的自由意志

主体与工具是一对相对的概念,而自由意志是区分主体与工具的重要因素。[14]主体属性意味着决定是由自己作出的,而非受制于其他主体,行为自由是意志自由的外化,意志自由和行为自由均属于认定主体地位的前提条件。具有充分认知能力和行动能力的主体不但能够拥有独立自主的意志,而且能够通过自己的外在行为表达出该自由意志。④

按照康德的说法,自由意志以纯粹理性的实践运用为基础,是一种“决断免受感性冲动之强制的独立性”,包括两方面的内涵,一方面是根据自己的需要进行选择的能力,另一方面是不受外力影响独立作出选择的能力。[15]简单来说,自由意志由“意志”与“自由”组成,意志是基础,自由是核心。目前弱人工智能体仍然是受制于人类主体,只能在人类设计和编制的程序范围内实施行为,无法发挥主观能动性,因而当然不具有法律主体地位。争议主要在于,随着人工智能自主学习能力的加强,强人工智能体是否能够逐步摆脱人类设计和编制的算法程序。

强人工智能体可以利用人工神经网络和深度学习技术,自主根据当下环境需要来获取数据加以分析决策。但自主性不等于自由意志,强人工智能体若要具备完全的自由意志,还需不受外力影响、独立自由作出选择。正如萨特所说“自由无所凭依,自由没有根基,自由自己就是自己的根基,自由是每个人生存的基础”。强人工智能体虽然强大但也只是以强大智能完成人类设定的目标,最简单的例子就是阿尔法狗能够识记古今万千棋谱、战胜胜棋王李世石和柯洁,但它甚至不能选择是否进行比赛、是否选择输掉棋局。⑤有人提出2016年美国佛罗里达州的特斯拉Model S案里,其实就是人工智能具有自由意志而违背人类指令的体现。⑥其实不然,此案恰恰说明了由于技术受限和环境原因,自动驾驶系统只能根据当时的感知与决策技术水平被动执行指令,无法适应极端情景并自主决策。即使是无法监督决策过程和目的的“算法黑箱”也只是一种技术缺陷的体现,因为算法的背后是人,承载的永远是人类的价值与意志。就像艾·阿西莫夫提出的机器人学三定律“机器人应服从人的一切命令”,要求机器人忠实地为人类服务,也侧面印证了人工智能体更多展现出的还是工具属性,不具备完全自由意志,仅是人类肢体的延伸,以及对人类生理缺陷和脑力局限的一种补足。

综上三点论述,人工智能虽然具有独立的法律人格,能够享有权利、履行义务和承担部分经济责任,但是人工智能的自我意识与自由意志目前无法跳出技术理性的框架,至于未来是否出现“智能人”可以做到完全脱离人类却能具有人类一样的情感理性,我们未得可知。所以笔者认为对于人工智能应当根据发展水平不同采取客体论和有限主体理论。法律主体地位之研究如若能够得出定论或者根据智能程度得出阶段性结论,对于人工智能应用的发展影响都将自不待言。

四、自动驾驶技术之法律地位

主体资格类型和范围具有开放性,意味着法律主体地位摆脱了属“人”定势,只要满足一定的构成性属性,则该社会实体具有法律主体的地位。[16]假若未来有一天,人工智能体在具有独立人格的基础上,同时拥有自我意识和自由意志,则它当然地、完全地具有法律主体地位。不可否认地是,部分具有自主性的人工智能体确实给科技发展带来了不可预测性和创造性,也在一定程度上影响了法律责任的认定与分配。但是就目前的科技发展现状来看,并不是所有的自动驾驶技术都具有自我意识和自由意志,因此我们要根据其不同自动化等级所对应的智能水平来判断是否具有主体地位。

1、自动驾驶技术分级及对应智能水平分类

2014年国际自动机工程师学会提出的L0至L5的六级理论(以下简称为SAEJ3016标准)。其以是否需要驾驶员实施全部或部分驾驶任务、自动系统是否仅能在限定区域内实施运转任务、特殊场合下是否期待驾驶员接管这三点将自动驾驶分为六级。自动驾驶技术属于人工智能技术的一部分,与人工智能法律主体地位的判断标准一致,是否满足标准三要素取决于科技智能发展。基于人工智能认知水平和人类认知水平之间的差距,人工智能体可分为弱人工智能体、强人工智能体和超级人工智能体。[17]

弱人工智能体是指不具有自主意识和自由意志,不能真正实现推理和解决问题的智能机器。因为无法超出预设的程序范围,所以弱人工智能只能应用于特定领域。⑧强人工智能体是指达到人类水平的、能够自主适应地应对外界环境挑战的人工智能, 又可称为“通用人工智能”、“类人智能”等,可以解决不同领域的复杂问题。而超级人工智能体是指与人类认知水平没有差距,甚至计算和思维能力已经远超人脑,具有自我意识和自由意志,比强人工智能体多了道德、信仰、欲望的智能体。⑨即超级人工智能体超越了技术理性并拥有了情感理性,能够理解和解释人类的情感和体验,会高兴、难过甚至愤怒。可以超越人类的科学进行自我发展,不受人类控制。

由于目前还未有真正出现超级人工智能体,其只是一种分类理论上的设想,所以主要还是分析弱人工智能体和强人工智能体在法律关系中的地位。严格来说,现在世界上大部分的人工智能技术都处在弱人工智能阶段,我们目前仍属于弱人工智能时代。如L0、L1级别的无自动化、辅助驾驶没有智能因素参与,只是机器;而市面上量产的自动驾驶车辆都处于L2、L3级别的弱人工智能,L3级别往上方才实现自动化技术的飞跃;L4、L5级别的强人工智能尚处于概念机阶段或未投入量产。

2、不同自动化分级下的法律地位

对于低级智能发展水平的弱人工智能体而言,学界主流观点是将其视为客体。如工厂机器人、家庭机器人、医疗机器人、无人机和无人艇等,本质上是承载数智软件功能的物质性工具。自动驾驶技术不是简单的“人”与“物”二选一的关系,L2、L3级别的部分自动化、半自动化驾驶技术可以自主规划最优路线,以最适宜的速度平稳驾驶,带给使用者舒适的体验。但是,自动驾驶汽车无法在没有使用者指令的状况下自主选择是否上路行驶,也无法自主选择出发地和目的地,只能严格遵循使用者输入的出发地和目的地的指令上路行驶。也就是说本质上还是在遵循乘客或人类驾驶员的意志,而且随时需要驾驶员的接管,不能脱离人类的算法设计,因此仍然处于被支配地位,不满足人工智能“具有自我意识”和“具有自由意志”的判定标准,只能归属于权利客体。

对于高级智能发展水平的强人工智能体而言,学界存在诸多争议。有学者认为强人工智能机器人的本质在于处理不同事务时拥有进行自主思考的能力, 具有作为独立主体的自我意识与身份认同。也有学者认为强人工智能的行为不论是依照预先设定的程序运行还是脱离程序设计的自主运行,都欠缺法规范遵从能力的意志性,不仅不像自然人一样拥有肉体与意识的生理构造,也不像法人一样符合拟制法律主体的要求。[18] L4、L5级别的自动驾驶技术被称为和高度自动化、完全自动化驾驶技术,属于强人工智能体,不需要人类驾驶员接管,它像是一个被你雇佣的司机,能够灵活安全地带你去你想去的地方,在未来蓝图中,L5级别甚至被规划为能够按照指令去跑网约车,它不仅是我们的代步工具更是我们的赚钱“帮手”。但尚不满足赋予其完全的法律主体地位的前提条件,一是当前仍没有明确的为人工智能体注入“第一桶金”的现实路径,是需要人类赋能的人工产物;二是当面临驾驶碰撞的伦理难题时,无论是道义论、功利主义,抑或是最大化最小值算法,这些道德算法全部都是人类主观价值的客观数据呈现。[19][20]

自动驾驶技术可否具有法律人格、被赋予法律主体的问题,根源在于是否具有法律人格、自我意识和自由意志。如前述章节论证,笔者并不认可强人工智能体具有自我意识和自由意志,主体性主要表现在自觉性、能动性、创造性, 人工智能虽然也表现出了一定特征, 但表现出来的是被规定的自觉性、受限制的能动性、程式化的创造性。因此强人工智能体只能被赋予有限的主体地位,此种有限是指人工智能体既不像自然人一样具有肉体与情感,也不像法人组织和非法人组织等拟制人格一样背后集中的是人的意志、是自然人人格的集合,但是可以在一定程度上减轻其他主体的责任。

五、结语

人工智能的发展多变性先天地就决定了我们不能简单地将其划分为法律客体或者法律主体,身为子集的自动驾驶技术亦然。自动驾驶的自动化分级突显其不同的智能发展水平,不同智能发展水平指向不同的法律地位。L3级别及以下属于弱人工智能体甚至是机器,只是按照既定的算法来完成人类的指令,处于被支配地位,为法律客体;L4、L5级别的属于强人工智能体,相较弱人工智能体多了自主性,能够自主决策甚至自我学习,但是不具有自由意志、暂无法跳出技术理性的框架,仅为有限法律主体。雷·库兹韦尔教授提出了人工智能奇点年理论,跨越临界点时人工智能将超越人类智慧,人们需要重新审视自己与机器的关系。或许等到那时真的出现了具有自我意识和自由意志的“智能人”或超越代码逻辑来模仿人脑神经元的“电子脑”等的超级人工智能体,才可将其视为完全法律主体。

参考文献

[1] 郭少飞.“电子人”法律主体论[J].东方法学,2018,(03):38-49.

[2] 张沁芊.电子商务中人工智能体的民事责任研究——以“电子代理人”为例[J].湖北工程学院学报,2020,40(01):100-105.

[3] 易继明.人工智能创作物是作品吗?[J].法律科学(西北政法大学学报),2017,35(05):137-147.

[4] 张绍欣.法律位格、法律主体与人工智能的法律地位[J].现代法学,2019,41(04):53-64.

[5] 马驰.谁可以成为法律主体——兼谈人工智能的法律主体资格问题[J].甘肃社会科学,2022,(04):129-141.

[6] 吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,(05):128-136.

[7] 冯洁.人工智能体法律主体地位的法理反思[J].东方法学,2019,(04):43-54.

[8] 刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学,2019,13(04):56-66.

[9] 袁曾.基于功能性视角的人工智能法律人格再审视[J].上海大学学报(社会科学版),2020,37(01):16-26.

[10] 许中缘.论智能机器人的工具性人格[J].法学评论,2018,36(05):153-164.

[11] 王利明,杨立新,王轶,程潇.民法学[M].北京:法律出版社,2005.

[12] 陆幸福.人工智能时代的主体性之忧:法理学如何回应[J].比较法研究,2022,(01):27-38.

[13] 张佳欣,刘园园,陈曦等.“顶流”之下,看人工智能喜与忧[N].科技日报,2023-02-16(005).

[14] 刘宪权.智能机器人工具属性之法哲学思考[J].中国刑事法杂志,2020,(05):20-34.

[15] 康德著,李秋零译注.纯粹理性批判(注释本)[M].北京:中国人民大学出版社,2011.

[16] 李萱.法律主体资格的开放性[J].政法论坛,2008,(05):50-58.

[17] 皮埃罗·斯加鲁菲著,任莉、张建宇译.智能的本质: 人工智能与机器人领域的 64 个大问题[M].北京:中国工信出版集团、人民邮电出版社,2018.

[18] 时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018,36(06):67-75.

[19] 彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(02):52-62.

[20] 郑玉双.自动驾驶的算法正义与法律责任体系[J].法制与社会发展,2022,28(04):145-161.

注释

①参见《国家互联网信息办公室关于<生成式人工智能服务管理办法(征求意见稿)>公开征求意见的通知》,载中国网信网,https://baike.so.com/doc/30475214-32116750.html,访问时间:2023年11月5日。该办法尚未正式生效,征求意见稿第五条中写道生成式人工智能的个人信息保护义务。

②参见王华平:《自动驾驶汽车的责任归属问题研究》,载《人民论坛·学术前沿》2021年第4期。因为传统的非自然人主体没有独立财产,也不像自然人主体一样拥有肉体和精神的感知,所以经济惩罚最终由设计者或所有者承担,拔掉电源、囚禁机器甚至判处死刑等对于人工智能机器又没有意义,其无法感知自己的实体和精神,故惩罚空缺导致了主体地位阙如。

③参见《ChatGpt人工智能成功通过“图灵测试”引领智能交互新时代!》,载网易网,https://www.163.com/dy/article/HVNIQLT505561ZFH.html,访问时间:2023年11月9日。指测试者与被测试者(为一个人和一台机器)分隔开来,通过一些装置向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

④我们还应当明确何为工具属性,工具属性有两层含义:一是工具不具有自由意志,工具在世界中发挥何种作用以及发挥作用的大小,并非取决于工具自身,而是取决于使用者的意志;二是具有可支配性,因为工具不具有自由意志,使用者以自身意志和行为控制工具活动的范围与方式等,并进而对客观世界产生影响,主体与工具之间是支配与被支配的关系。

⑤参见《李世石对战阿尔法狗感悟:信心能赢却被智能进步打败》,载天气网,https://www.tianqi.com/news/144965.html,访问时间:2023年11月10日。从李世石尚能胜阿尔法狗一局到阿尔法狗全胜柯洁,我们可以看出人工智能的“脑力”之强大,但笔者认为这种强大仍然是程序下的识记、处理、学习与决策能力。

⑥参见《揭开算法“黑箱”:让你上瘾的背后是什么?》,载搜狐网,https://www.sohu.com/a/228695631_181884,访问时间:2023年11月10日。

⑦试举一例来形象说明弱、强和超级人工智能发展水平的不同:我想制作一顿精美的晚餐,弱人工智能是切割机和翻炒机,它比我更能把控刀工与火候,但每种机器只有程序所设定的功能,把我的需求输入直接地转化为输出;强人工智能是智能做饭机器人,它具有自主性,能够自主为我规划菜品,可以满足我的多样化需求,但它的行动同样需要我发号施令;而超级人工智能就是另一个“我”,它具有自我意识和自由意志,可以完全代替我进行工作。

⑧参见《弱人工智能和强人工智能是什么?它们有什么区别?》,载搜狐网,https://www.sohu.com/a/631363246_121364413,访问时间:2023年11月10日。

⑨参见《什么是超级人工智能?会带来哪些潜在威胁和优势》,载业路网,https://www.yelunet.com/chanye/ai/2022-03-04/1810.html,访问时间:2023年12月5日。

》在线投稿系统

*文章题目:
*作者姓名:
*电子邮箱:
*通讯地址:
*联系方式:

  备      注:

*上传稿件:

支持上传.doc,.docx,.pdf,.txt,.wps文件

投稿须知:

1、审稿结果将于1~7个工作日以邮件告知,请注意查收(包含录用通知书、审稿意见、知网CNKI查重报告)。

2、提交投稿后,若7个工作日之内未接到录用通知,则说明该文章未被录用,请另投他刊。

3、凡投寄本刊稿件,如在内容上有侵权行为或不妥之处,均应文责自负。本刊有权对来稿进行文字编辑、加工和修改,如不同意,请附说明,以便妥善处理。

4、多作者文稿署名时须征得其他作者同意,排好先后次序,通知用稿后不再改动。

5、凡投往本刊稿件一经录用发表,其版权归本刊所有。

6、本刊已全文录入中国知网、万方、维普等数据库,如作者不同意被收录,请提前申明,未申明者,本刊一律视为同意被收录。

7、请勿一稿多投。