一、人工智能的法哲学基础及其演进
法律主体在人类社会发展进程中的意义和内涵历经变化,而背后是关于人的哲学思想之变迁。通过发掘法律主体的哲学根基,可为人工智能法律主体地位的认识与判断,提供哲学思想理论支撑和行为指引。
(一)人的传统主体哲学演化
(1)人格自神格独立
15世纪、16世纪欧洲的文艺复兴和宗教改革运动如火如荼地开展,造成中世纪神学—哲学体系的历史终结。作为当时社会文化主要思潮的人文主义思想家从哲学和神学的角度论证了人的崇高价值,即尊严、才能和自由;人不再是匍匐在上帝之下的可怜被造物而是上帝创造的杰作。[1]所有的人都同样是上帝的子孙,每个人都具有他自己的独特意志。[2]
(2)人由实体跨越至主体
自然科学在17世纪、18世纪得到空前的发展,宣示着一个理性时代的到来。哲学为适应科学发展的需要发生了“认识论转向”,人的主体性开始显现。作为近代主体哲学之父笛卡尔试图寻觅一种自我的明证性和确定性。笛卡尔确立了自我(心灵)、上帝和广延(外在物质的本质)三个实体。终结了近代哲学以前只有实体而无主体观念的历史,“人”开始了从实体到主体的跨越,哲学也开始了向“主体性哲学”迈进,从“心灵”之中开始寻找。
(3)人是目的而非手段
康德哲学奠立了人之主体性的综合思想基础。康德作为主体哲学的集大成者,在对理性进行批判的过程中,以先验论的方式论证了不仅体现在纯粹理性认识功能之上,而且体现在实践理性的道德自由之上的主体能动性。知性为自然立法而理性为自身立法,作为自然存在和作为理性存在的人具有了自己为自身立法、完全由自身决定自己存在的真正自由,从而具有了不同于任何自然存在的价值和尊严。
(二)传统主体哲学转向
随着19世纪以工业革命为始端的自然科学的革命式跨越发展,这一时期最具代表性的思想家胡塞尔提出了主体主义哲学,胡塞尔主体主义哲学的‘交互主体性世界’理论,为当代西方人学奠定了方法论的基调,同时也为主体性和能动性的人之位格——“人格”———“人的主体性要素的整体性结构”,纳入了理性、精神性和伦理性的元素。
(三)主体哲学史对于人工智能主体的启示
在弱人工智能时期,人工智能虽然能够实施看似智能的类人行为,但无法充分理解符号意义、行为属性,故而被认定无心灵、无意向性,进而主体性难以得到认可。归根结底这种观点除了固守人类中心主义外,还因为缺乏一种深邃的哲学眼光。从发展性、未来性的视角看待人工智能,在量子计算发轫、算法精进、数据喷涌的迅猛态势下,人工智能正在迈向通用型。无论是主观能力方面,还是行为外观方面,人工智能愈加逼近于人,也更加能够为人类所接纳,从而深度嵌入人类社会关系,成为关系型主体。
人工智能(Artificial Intelligence)英文为“AI”。它是研究、开发用于模拟、延伸和扩展人的智能的理念、方法、技术及应用系统的一门新的技术科学。2021年7月在上海召开“2021年世界人工智能大会”,人工智能是上海落实国家战略部署,重点发展的三个先导产业之一,也是城市数字化转型的重要驱动力量。大会将聚焦开源框架、AI与脑科学,认知智能、隐私计算、AI与量子计算等等。由此可见人工智能的研究与开发之迅猛发展之势,任何人(包括律师)对于人工智能使用场景与发展态势,应当在已有系统知识的支撑下有所感知与体会,方可迎头赶上而乘势而为。
二、人工智能的法律主体资格认定问题
法律人回答了人工智能在科技飞速发展条件下的法律问题及其思考:随着科学技术的发展,人工智能一旦具有“自主决策能力”情况下,比如机器人谱写歌曲、写诉状、参与合同签订、机械工作和决策辅助、承担驾驶员、作家、家庭管家、自动化决策者等传统理性人的角色,此时它是否具有法律意义上主体资格?为应对人工工智的法律主体资格问题,法学界一直对此探讨不休,主要形成了法律主体说(代理说和电子人格说)、法律客体说(工具说和电子奴隶说)以及折中说。
(一)法律主体说
法律主体说认为在人本位前提下,可赋予智能机器人一定法律主体地位。法律主体说的代表学说包括代理说和电子人格说。代理说——机器人系作为主人的代理而存在,其代理行为的法律后果最终由其主人承担。电子人格说——其目的是要设立如电子人(electronic persons)一样的法律地位,让机器人为其制造的大量的损害负责。除上述学说外,张长丹教授认为,人工智能将拥有与人类同等甚至更高智力水平,其在当前已能影响民事主体的生存、行动及死亡,并将在未来独立活动并与自然人建立法律关系。因而自然人与人工智能的关系不再仅仅是所有人与物的关系,故支持在一定程度上认可符合一定条件的人工智能法律主体地位。
(二)法律客体说
法律客体说认为人工智能是人类依靠科学技术发明出来的,不具有独立的意志,智能成为人的意志的执行者,不能够成为法律主体。法律客体说的代表观点包括电子奴隶说和工具说。电子奴隶说——这种学说是把机器人当做“电子奴隶”,把机器人的法律地位等同于奴隶制时代的“奴隶”,在奴隶制时代只有奴隶主才具有法律意义的主体地位,而奴隶则被比作一种生产工具,其没有身份、没有法律地位。工具说认为人工智能知识实现人的意志的一种工具,不具有法律上的主体权利能力。
(三)折中说
折中说对于人工智能的法律主体资格认定持开放态度,认为不能够一刀切将人工智能视为法律主体或者法律客体,而应随着社会科学技术以及人工智能的发展阶段来判断。其一方面指出当前人工智能水平尚不足以以动摇民法主体理论根基为代价来解决现实问题,另一方面亦指出应根据人工智能未来之发展状况对社会生活的影响程度来判断是否有赋予法律主体资格的必要。
显而易见,从民商事法律角度对于“人工智能”主体认识上,尽管有不同的法理学说,但是从立法层面尚未对人工智能的主体性进行法理定性。但对于人工智能主体不同、主体属性认识是不同的,其最终承担的法律责任和后果肯定是不一样的。
笔者认为,在现实发展条件下已经出现的互联网条件下通过生物技术、电子技术、信息技术等方式,可能会产生“自主决策”不同样态主体体系,亟需法律回答机器人之主体和责任承担等最基本的法律问题。比如自动驾驶汽车出现以后,已经没有现代意义上的驾驶员,交通事故的侵权责任的归责原则还适用吗?无人驾驶中是适用侵权责任和产品质量责任原则还是委托管理原则,这个在司法裁判实践中是需要明确认定的。无人驾驶出现事故时其归责原则耐人寻味,这是在人工智能推动之物联网条件下人们必须面对并需要回答的法律问题。关于机器人的法律主体地位和责任承担方式问题,目前从国内机器人法制立法角度尚无定论意见。这个问题本身也是不断发展、不断总结、不断认识的一个渐进地过程。
三、人工智能与基本法律行为之联系
“智能合约”的建立,因为其具有不可更改的天然忠诚属性,因此可以通过司法方式逐步对于机器人在确立遗嘱上形成方式与效力予以确定,提高机器人在遗嘱中使用的可能性。
其实人工智能的行政处罚初始场景已经出现了,比如我们现在接受最多的交通违规扣分与处罚就是人工机器通过监控、记录、确定以后,将相关数据发送到被处罚人确定可以接受终端,如果被处罚人无异议接受处罚的,人需来、分扣掉、钱交完,行政案件全部处理完毕。这样一种交通处罚行为完全可以不要通过人工操作或认可,摄像头成像以后机器自动生成处罚信息进行发送,被处罚人没有异议的超过期限以后处罚自动生效。被处罚人有异议的,可以依法提出行政异议以后,人工通过法定程序进行复核确定纠错。
人工智能或者讲机器人在制作法律诉讼材料、分析判断归纳案件材料的属性、对案件事实和裁判定性评价等方面,对于司法人员辅助就如同辅助驾驭条件下的“定位导航”——也就是在工作初期辅助工作人员完成材料筛选和成型过程,对裁判文书观点检索有帮助,对于流水化的裁判文书材料制作有辅助完成的功效。
在互联网条件下“机器人法”必将在构建人类生活新常态、新秩序中发挥重要的作用。从法律对于机器人与法相结合的角度,法律不过就是规则至于主体之间进行利益确定和权益分配,不过是实现了“定纷止争”之功能工具。法律人从来都是社会活动的积极参与者、秩序的维护者和合法利益的保护者,他们没有片刻懈怠而关注着岁月流转,针对世事纷纷及时并有效地回答了社会关切,提出社会经济发展全部问题之系统性法律解决方案。
通过学习、思考人工智能法已经存在的客观情况、关注其发展,对于一个法律工作者的视野非常有好处。对于社会经济出现的新现象探讨和研究非常有意思、也是非常有价值的东西。
四、法律对于人工智能之政府监管思考
人工智能作为一种新兴的事物,一方面不可置疑的给我们的生活带来了极大的便利;另一方面也给我们的市场、个人隐私造成了冲击与侵扰。为了防止或者降低人工智能的负面影响,必须在法律和技术上加强对于人工智能的政府监管。
下面笔者结合比特币与区块链、隐私权保护问题谈谈对于人工智能的政府监管问题。
(一)加强对比特币的监管的必要性。
关于目前市场上红火的比特币。根据中国央行2013年12月5日发布《关于防范比特币风险的通知》的规定:比特币具有没有集中发行方、总量有限、使用不受地域限制和匿名性等四个特点。虽然比特币被称为“货币”,但由于其不是货币当局发行,不具有法偿性与强制性等货币属性,并不是真正意义上的货币。从性质上说,比特币应当是一种特定的虚拟商品,不具有与货币等同的法律地位,不能且不应作为货币在市场上流通使用。从司法案例上,目前在国内已经发生了有关比特币交易的司法审判案件,对于比特币一般从司法行为上认定其为虚拟商品。
“区块链作为一种'去中心化'的分布式账本,正在广泛第应用到各个行业。以比特币为代表的数字货币又是区块链技术当前最为成功的应用”。其特点就是:“与主权货币相比,数字货币具有'去中心化'和'非主权化'的特征,这与传统依靠国家主权构建信用体系和立法模式不同,数字货币则通过去中心的分布账本,并借助密码学技术重构社会的信用体系。”由此可见,区块链技术优点非常突出、但是问题也是比较明显——区块链具有去中心化、分布记账不可更改的特点,但是比特币去中心化、匿名化,使国家主权对其行为无法进行有效监管。
区块链技术法律属性、人工智能金融与政府监管原则措施特殊优势,比特币所具有的国家法币不可代替的独特优势,所以比特币现在一直处于增长态势。当下比特币国际市场交易中“过山车”一般的行情,让老百姓胆颤心惊的感受,怦然心动而又琢磨不透。大数据和算法也应当通过法律予以规制,作为互联网条件下一种技术,这样一种技术一定是人类可以控制和掌握的,而不是人类完全无法掌握和控制——这是人类生存和发展的一般哲学原理的必然要求。因为人类如果在地球范围内对一个生物包括病菌、微生物或者一项智能技术等是人类自身都已经无法控制和掌握时,最先损害的是人类自身存在和安全,而其他生命样态仅仅是不知不觉的被动适应而已。如此“无知与无觉”之发展下去,地球上的人们必将会在“时光隧道”之中,慢慢走向人的无际之尽头。
(二)人工智能与隐私权
人工智能具有巨大的社会价值,但也会提出一系列的法律挑战。其中,人工智能引发的隐私保护问题尤为显著,已经成为当前最具挑战性的话题。在人工智能时代,我们每个人都生活在数据与算法之中,享受着人工智能给我们带来的智能服务。然而,人工智能在为人们提供极大便利的同时,也引发了严重的隐私危机和法律挑战。
(1)人工智能时代隐私权的危机
第一,人工智能增强了对隐私的直接监控能力。当你和朋友家人私下开怀畅聊时,安装语音识别技术的智能助手正在记录着你们所说的每一个字。而借助图像识别技术,无处不在的数字摄像头就像安装了大脑的眼睛一样,可以精准地从人群中自动识别人脸,锁定监控对象,甚至预测和判断人的行为。与此同时,除了物理空间之外人工智能技术也极大增强了对网络空间的直接监控能力,人们利用网络搜索过什么,购买过什么,观看过哪些视频,与哪些人聊过天、甚至聊天的内容等无不处于监控之下,甚至给了犯罪分子可趁之机,最近网上热炒的郑州某村镇银行“红码”案,就是典型的犯罪分子通过人脸识别系统,人为制造红码进行的犯罪活动。
第二,人工智能的算法并不完美。如果说数据是人工智能的基础,那么算法就是人工智能的本质。正是算法的不断突破,人工智能才得以像人一样智能,才能独立于人类的干预实现自动化决策,为人们提供极大的便利。然而,人工智能的自动化决策并非完美无缺。算法可能导致偏见或歧视,人工智能想要实现自动化决策就需要数据的喂养,如果数据本身存在偏见或歧视,那么自动化决策自然也会充满偏见或歧视。
第三,人工智能的信息捕捉能力强大。现代社会几乎人人都有手机,而手机上的app对用户信息的收集具有很强大的能力。比如购物app可以根据你浏览的购物商品信息,了解你的喜好,在你下次打开app时为你推送自己喜欢的商品,这就是所谓的精准喂投。与此类似还有新闻app。地图类app可以收集你平常的上下班路线、平常经常取得场所,获取你的交际圈等等。最近某打车软件被爆出不正当的收集用户信息,已经遭到下架处理。
由此可见,人工智能的信息收集能力强大。人工智能可以给我们生活带来便利和活力,但是人工智能可能给与人们带来潜在的危险并不是空穴来风。
(2)人工智能时代下加强隐私权保护的措施
第一,加快有关隐私权保护的立法。完善的法律体系是降低人工智能侵犯隐私权的有力手段。当前,我国隐私保护法律体系还不够健全,特别是对于信息隐私的保护还处于起步阶段,2021年8月20日全国人大常委会通过的《中华人民共和国个人信息保护法》利用单行法律确定了个人信息保护的基本法律制度,进一步明确了个人信息内涵和外延,强化公权力对于个人信息保护力度。人工智能对于个人信息包括隐私权效应作用有正面的积极性和负面吞噬性(如网络成瘾),可能出现的正反“两面性”的理论研究和法律实践活动还是一个非常大的课题。
第二,保护用户的系列权力。首先,要保障用户的知情权。用户在使用某个人工智能产品或者技术时 ,如果该产品或者技术需要收集用户的信息以及收集哪些信息,应当及时全程的告知用户。其次,特别保障未成年人的信息。未成年由于认识能力有限,若其在使用人工智能产品或者享受人工智能服务时,应当禁止收集未成年人用户的信息或者收集未成年人的信息应当征得监护人同意。
第三,设置自动化处理禁区。个人信息有敏感信息与一般信息之分,前者与人们隐私关系重大,理当予以特别保护。
第四,强化数据控制者的法律责任。当前,我国侵害个人信息的行为十分猖獗,亟需加大处罚力度。根据欧盟《一般数据保护法》第83条规定,数据控制者违法进行个人信息处理的后果是十分严重的,最高可以实施2000万欧元或其上一财政年度全球营业总额4%的行政罚款,这对于谷歌、脸书等互联网巨头具有极大的威慑效应。对此,我国也应强化数据控制者的法律责任,以制裁和威慑侵害用户隐私行为的发生。[3]
结语:对于“人工智能”以及人工智能法律制度探讨和研究,是律师作为法律职业人以社会良知与实践经验、法律系统知识和认知逻辑体系,对于包括人工智能在内的一切社会与经济发生之新事物、新业态的重要学习内容和必须严肃思考的命题。法律人的观察思考与技术研发专家的思考,无论是对问题之深度和广度的探讨,还是对依然和未然存在着客观事物之层次、内容和角度上观察思考方法是完全不一样的,所提出的解决方案肯定是不一样的。
再从一个国家和一个地区(比如安徽合肥)科技创新之发展定位角度考量,对于人工智能的法律研究和思考,不仅反映着科技群体对于科技创新的激情渴望,也反映着社会一般群体(比如法律服务行业)对于科技创新成果从风险和控制定位的关注和思考。
“在发展中思考风险”是非常有必要的法律理念。面对着迅猛发展社会与经济现象包括人工智能、生物遗传基因技术、量子纠缠理论等等新生事物,我们法律人责无旁贷一直在细心观察和认真思考,从来不会缺席。
参考文献
[1]赵敦华:《西方哲学简史》,北京大学出版社,2001年版,第160页。
[2]史蒂文·卢克斯:《个人主义》,阎克文译,江苏人民出版社,2001年版.第44页。
[3]张新宝:《从隐私到个人信息:利益再衡量的理论与制度安排》,《中国法学》,2015年第3期,第58-59页。
[4]刘云:《论人工智能的法律人格制度需求与多层应对》,《东方法学》,2021年第1期,第61-73页。
[5]邵国松,黄琪:《人工智能中的隐私保护问题》,《现代传媒》,2017年第12期,第1-5页。
[6]杨延超:《ALLAW机器人法》,法律出版社,2019版,第99-125页。
作者简介
周茂铭,北京大成(合肥)律师事务所,高级律师,法律硕士,1996年开始律师执业,2021年中国社会科学院研究生院博士在读。