随着大数据时代的到来,人工智能技术与人们的生产生活产生了越来越密切的联系,带来了良多好处,但这同时也对社会安全提出了挑战。人工智能技术对传统生活与工作的改革有着极大的促进作用。当然,危险总是与机遇并存,大数据在推动生活便捷化的同时,也诞生了前所未有的危险,人工智能技术的发展对社会风险做出了跳跃式的改变,也更新了人们对危险模式的认知。更复杂、更多样的社会危险出现在现实生活中,对人民和国家的利益造成了威胁,提升了安全防控的难度,而且未来随着人工智能技术的迭代更新,其所带来的弊端也会越来越多。相较于传统意义上的风险,行为人通过人工智能技术实施的危害行为所造成的影响更为巨大,其所波及的的范围与人群数量令传统危险难以企及,行为的危害性也就更为巨大。因此,在大数据时代,对人工智能的风险规制就显得十分必要与迫切。本文从理论分析角度出发,通过对人工智能所存在风险的解析,分析其利弊,提出合理解决措施。
一、人工智能概述
(一)人工智能概述
人工智能作为一种可以用来进行研究和开发并且适用于模拟、拓展和延伸和人类一样的智能,总结理论、技术及应用系统等的一种技术科学,属于计算机科学的一部分。换句话说,人工智能就是通过模仿人类的思维与意识而使机器人拥有与真实人类一样思考方式的技术科学。从人工智能的物质属性角度出发,该项技术是指科技人员通过对计算机语言的编写设计创造出机器运行所需要的数据系统及其他一系列要素,从而使人工智能产品做出与真人一样的行为,即模仿人类语言与动作。有学者通过当前人工智能的发展现状及趋势,推测出未来人工智能技术的发展可能会分为三个阶段,分别为弱、强、超人工智能阶段。此种分类方式也得到学界的普遍认可,成为通说。
(二)人工智能造成的风险概述
风险社会这一概念由学者贝克提出,是指不确定的、频发的风险将人类带入到不安全的社会环境之中。其中,科学技术在所有不确定风险因素中表现得最为突出,因科学技术所造成的风险也给人类带来了极大的恐慌。由此可见,人工智能作为大数据时代科学技术的代表,其中蕴含的风险是让人难以想象的。所谓人工智能风险,狭义的来说就是别有用心之人通过该项技术实施危害行为所带来的社会风险。从人工智能伦理研究内容的角度看,可以从宏观上将其大致分为伦理风险(问题)研究与伦理风险防范研究两个方面。伦理风险是指在人与人、人与社会、人与自然、人与自身的伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡等。综览相关研究成果,早期人工智能伦理研究论著,大多数主要聚焦于澄清伦理问题、剖析伦理风险,虽然不少论著或多或少地都涉及伦理风险防范的内容,但总地来看风险防范问题不是学界关注的重点。随着人工智能伦理风险研究的深入,特别是一些现实伦理风险的凸显,人们愈加重视伦理风险防范 研究,而且不仅仅局限于理论探讨,而是逐渐落实到社会政策、规章制度等更具体更现实的方面。近五年来,无论是联合国与各国政府,还是各类学术团体与企业,都热衷于制定、发布涉及人工智能伦理风险防范的各类规划、宣言与报告。据不完全统计,相关材料有近百种之多。也就是说,人工智能伦理风险防范的学术研究与政策制定,是在人工智能伦理风险研究产生一定影响之后,才引起较多关注的。需要注意的是,法学家对包括伦理风险在内的人工智能风险防范研究比哲学家更为重视。人工智能风险防范研究的论文有相当一部分发表在法学类期刊而非哲学类期刊,即是明证。不过,从总体上看,对于如何对人工智能进行科学有效的伦理风险防范,包括具体的防范目标、进路、机制与策略等,相关的研究与实践尚处于初创阶段。
我们可以清晰预见,如果现在还不做一些事情来规制人工智能技术的发展,未来这个“潘多拉魔盒”恐怕会带来更大的灾难,如若置之不理,这份责任谁来承担。所以,为了避免此类危险的爆发,对人工智能发展的预防与规制迫在眉睫,决不能拖延,放任只会带来更大的难题,不要让可怕的噩梦走进现实的生活。诚然,科技是一把双刃剑,我们在享受福利的同时,也应做好承担风险的准备,但人工智能这样的技术所带来的危险是超出我们的想象的。人工智能技术便利了我们的生活,产业因此进行了革新与升级,极大地提高了生产力,但是这背后可能隐藏着的是人工智能冲击人类文明规则的危险,是对人类生命造成威胁的因素之一,如果人工智能技术高速发展,上文中提及的超人工智能产品出现,机器人有了自主意识,后果将不可设想。
二、人工智能造成的风险深度探究
新的时代背景下,人工智能融入生活成为一种趋势,伴随而来的社会风险不可避免,新的危险手段、风险模式与危害类型也将接踵而至。如何对其进行认知,从而预防危险的发生与解决问题至关重要。
(一)人工智能风险样态层出不穷
今天,互联网技术的发展已经到达一定高度,而人工智能技术所依赖的载体便是互联网,该技术的发展同样会对社会安定环境造成冲击,许多传统危险行为将进行质变,危害行为的形式将变得多种多样。显而易见的是,人们可以清楚地认识到与人工智能所产生的危险共存是一件必须面对的事情。当科技的使用走入错误的道路,那么灾难不可避免。如果人工智能技术被具有非法意图的设计者或使用者不当利用,将人工智能技术作为实施危险的工具,造成了越过红线的行为,但此时因法律的滞后性而使真正的危险实施者逃脱责任,其所造成的恶劣影响难以言喻。
(二)人工智能时代风险行为主体不特定
根据本文第一章对人工智能的分类,学理意义上是以控制能力与认知能力作为人工智能风险主体划分的标准,即弱人工智能产品并不具有风险主体资格,此类产品只能通过既定指令进行操作与工作,所以弱智人工智能犯罪的危险责任只能有设计者与使用者承担。另外两种强人工智能与超人工智能则可以部分或完全脱离设计者的的控制,有自己的主观认识与辨别能力,通过自己的独立判断实施行为。因此在强人工智能与超人工智能时代,对风险行为主体的认定的难度要远高于自然人,容易造成归责困难。
(三)人工智能时代风险危害性进一步扩大
传统社会风险所波及范围以及社会影响十分有限的,仅能在某一领域的某一方面产生破坏,而人工智能与互联网相伴而行,其危险性是传统风险不能相比的,人工智能造成的犯罪行为往往覆盖于整个领域,造成较大打击。在医疗、金融领域中,人工智能因其对客户资料进行快速搜集和精准分析等优点,在行业内部的到了广泛的应用,为此类行业的发展提供了便利,但是一些别有用心的人却利用人工智能技术做出危害社会秩序的行为,造成了极其恶劣的后果。以金融业为例,不法分子侵入银行系统,对个人客户资料进行快速获取,在之后根据有效信息进行诈骗,使个人遭受财产损失。如果受害者是公司,如公司核心机密被不法分子掌握,那么就会造成公司无法运转或更大的损失。若不法分子盗取大量信息,通过人工智能技术做出有效分析与支配,甚至可以干扰到金融市场,造成的损失难以估计。
三、人工智能机器风险的认定
(一)对人工智能风险认定的必要性分析
人工智能具有高度的自我学习能力,不能单纯的认为人工智能只能是设计者与使用者实施危险行为的工具,其可能具有独立意识并做出自我的意思表示行为。以目前的人工智能技术发展速度来看,当前社会生活中的一些智能产品已经具备独立的思想并投入工作,这意味着未来某一天超脱人类控制而独立实施危害行为将不再是空谈。如果现在还不对其加以限制,仅仅将人工智能机器自主行为产生的责任归咎于设计者或者使用者的行为是十分不恰当的。然而由于法律具有滞后性的特征,很难做到对社会发展产生的新问题做出及时有效的解决,我国目前在人工智能风险领域的规制还处于空白阶段。可以预见的是,随着未来大数据时代的进一步发展,人工智能技术会产生跳跃式的变革,这也就要求我们早日将人工智能规范化尽早提上日程,提前建筑防御城墙以应对风险的到来,避免亡羊补牢的事件发生。
(二)人工智能风险法律分析
智能机器人在超脱人类控制的情况下,实施的具有独立意识违抗指令与程序的行为,造成了一定的危害结果,智能机器人需要以独立的主体资格承担刑事责任。也就是说当人工智能产品具有刑法上认定的认识能力与控制能力,并以其能力独立实施犯罪时,就可以认定该人工智能产品作为犯罪主需要承担刑事责任。根据我国刑法规定,对刑事责任主体的认定需要满足三方面条件。第一,在客观方面上,该行为必须是刑法上认定的危害行为。第二,在主观方面上,行为主体必须具备刑法上认定的刑事责任能力。第三,该责任主体依照刑法规定承担刑事法律责任。只有这三项条件都满足时,才能够在真正意义上成为刑法认定的刑事责任主体。从这一角度来说,人工智能产品是否能够成为刑事责任主体的关键就其是否具备刑事责任能力。Future实验室的CEO弗洛斯曾说,如果人类将学习能力赋予人工智能机器使其以自主意识进行活动,那么未来人工智能机器人实施犯罪活动将不可避免,他也因此做出了在21世纪的40年代机器人实施犯罪活动的次数与危害性将远远超越人类的预测。在未来,人工智能产品可能会产生超越人类的智慧,拥有更强的控制与辨认能力,我们也就理所应当的认为人工智能产品可以成为刑事责任主体,这一点毋庸置疑。当然,将具有独立意识的人工智能产品认定刑法上承担刑事责任的主体只是第一步,只有这个背景碑建立之后,接下来对其的具体分析才具有意义。
四、应对人工智能风险的解决措施
在科技飞速发展的背景下,为了能够及时应对人工智能造成危险恶性案件的发生,更好的做出预防与处理,我们应提早做出准备,有预见性的做出规制措施,以求更安全的智能生活与科技发展环境。但是由于不能对市场做出过多干预的原因,对人工智能领域的管控力度也不宜过大。应通过适当的规制措施,既能够保证人工智能技术不被用于错误道路,又能够保证人工智能技术的正常发展,营造安全的社会生活环境。
(一)确立人工智能风险责任主体地位
我国现行规定的责任主体只有自然人和单位两类,本文认为可以专门将人工智设置为责任主体。总共有两点理由,第一,人类与人工智能机器人最本质的区别在于是否拥有生命,但根据前文的阐述,只要具有控制能力与认识能力,就能成为理论上认定的责任主体,当人工智能机器人在算法与数据的加持下,产生自主意识,能够独立思考,对外部世界产生认知,此时我们已经不能单纯的将其认定为冰冷的机器,而是拥有了钢铁身躯的人类。虽然人工智能机器人脱离了传统意义上人的范畴,但是他通过自身意志所实施的“行为”却与自然人的所实施行为一般无二,这也就为立法将人工智能机器人列为责任主体提供了理论的可能性。通过当然解释,学理将不具备自主意识的法人归并为承担责任的主体,那么未来可能具有自主认识能力的人工智能机器人就更应该成为责任主体,这是完全合理的。综上所述,因法律规定不明确,司法机关无法正确内涵而无法处罚人工智能产品实施危害行为的观点目前来说是无法立足。在未来,当智能机器人掌握了更到维度的智慧,通过自主意识做出决定,其理所当然的具备成为责任主体的资格。
(二)构建人工智能风险的防范系统
风险预防一直都是值得关注的问题,为防止未来人工智能时代的带来新的社会灾难,可以提前构建人工智能风险防控系统。大数据时代,可以清晰预见人工智能技术的发展将会成为未来科技进步的主流趋势,如果我们因为其潜在的危险性就放弃进步,固步自封显然不太现实。一批又一批科技工作者呕心沥血对人工智能技术进行开发,让我们看到了这项技术的发展潜力与对未来智能生活的美好憧憬。虽然目前尚处于低层次开发阶段的的人工智能技术,但我们已经应该对准入门槛以及适用范围作出一定的限制,只有这样才能保证人工智能朝又好又安全的方向发展。通过对输入指令所涵盖的范畴的限制,设置明确的优先级制度,对人工智能犯罪风险进行规避。这不仅从根源上解决了安全问题,也对我们预测人工智能的行为提供的依据与理由。对于一些易发生危险的事项,我们需要对其进行特殊的限制以确保安全。同时,要明确人工智能技术能够进入的领域并进行风险评估,即能够进入什么样的领域、在这一领域能够进入的有多深,设立鲜明的“禁区”。通过建立上述风险防范系统让人工智能技术更好地服务于社会。
(三)严控人工智能技术发展
人工智能技术必将发展到更高层次,如果这项技术发展到上文所提及的“强人工智能”阶段,而当更为高级的人工智能机器人做出危害社会的行为,此时再进行规制未免“亡羊补牢,为时晚矣”。总结人工智能发展的规律,我们可以看出,这是一个从零到一的过程,最早的的人工智能产品没有任何自主意识,只是机械的重复着已输入好的指令,随着技术的进步,人工智能已经达到堪比婴儿的智慧水平,虽然历经了漫长的发展过程,但只要突破了这项封锁后,其进步速度将会日新月异。背后缘由就是人工智能超强的学习能力与计算能力推动着其告高速进步究。一项更让人为之惊讶的事情是,人工智能领域的专家学者很少有人不赞同,当人类与人工智能处于同一智力水平,人工智能的智慧发展速度将远远将人类抛于脑后且过程不可逆。此时,我们再去讨论如何有效预防与制止人工智能风险将变得毫无意义。因此,在我们还来得及的时候,在人工智能技术还处于低开发阶段的时候,通过法律对其发展速度进行限制是十分有必要的,不容忽视。要想保障人类今后的生存,就需要在尚且能够控制人工智能的时候就开始限制它的进化速度。
结论
人工智能技术的飞速发展,为我们的生产生活带来了新的挑战。在感叹科学技术突飞猛进的同时,我们一定要为做出安全保障措施以保证该项技术向更高更远的方向发展。研究人工智能带来的社会风险即使可以发展需要立足的根本,也是必须展望未来的新思考。通过合理的规制,未来的世界一定是更好的世界!
参考文献
[1]腾讯研究院,中国信通院互联网法律研究中心等著:人工智能:国家人工智能战略行动抓手[M],中国人民大学出版社,2017.232.