一、以“ChatGPT”为例的人工智能技术的快速发展
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。自人工智能技术出现至今,其广泛运用于各个领域,革新了人们的工作方式,为人们日常生活提供了便捷。
2022年底,“ChatGPT”这一聊天机器人程序横空出世,迅速走红。该软件是由美国的一家公司设计研发出来的。它因具备高智能性而受到人们的青睐。它具有强大的功能,可以根据聊天的语境模拟人类聊天交流,人们甚至可以依赖其解决撰写邮件、视频脚本、文案、翻译这样要求较高的任务。据统计,短短5天,ChatGPT注册用户数就超过1000万。至2023年1月末,ChatGPT用户就已经突破1亿,成为史上增长最快的消费者应用。2023年2月4日,以色列总统发表演讲,成为首位公开使用ChatGPT的世界领导人。然而在ChatGPT掀起了巨大浪潮的同时,也产生了相关争议。
2023年3月31日,意大利个人数据保护局以ChatGPT没有先行告知就收集处理用户信息为由,认为其缺乏大量收集和存储个人信息的法律依据。并且还指出ChatGPT还涉嫌数据泄露问题,为此宣布禁止使用ChatGPT。在现实生活中,像这种技术突破允许范围内被滥用的案例时有发生。
二、人工智能技术发展中带来的法律问题
(一)人工智能技术的滥用对个人信息权益的侵犯
随着大数据和互联网技术的发展,一方面提高了人们运用数据处理事务的便捷性,但是与此同时,也出现了许多由于个人信息泄露所引发的信息安全案件。个人的行踪、习惯、言谈等一系列隐私都已经完全暴露在数据的洪流中,个人的隐私权面临巨大的威胁。我国《民法典》人格权编中第1034条对个人信息的定义进行了规定。个人信息是“以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息。”当前绝大数互联网平台在收集、处理个人信息的过程中,都没有履行先行告知的义务,即用户不知情的情况下私人的信息就被搜集利用,这无疑是侵犯了用户的知情权。并且,我们所知的大数据“杀熟”就是指人工智能技术可以通过分析用户长期使用中所积累的数据,对客户进行个性化画像,以此来进行长期的信源控制、认知培塑、信息轰炸。因为个人信息具有高度敏感性和私密性,可以体现自然人的身份特质,有极强的人格利益,一旦泄露,对个人的基本生活和人格尊严都会带来一定的影响。
(二)对商业秘密保护的挑战
在人工智能时代,那些具有一定经济价值的数据资源,并被经营者采取相应的保密措施的商业秘密应成为重点保护对象。在现实生活中,人工智能技术在运用过程中搜集大量数据,若大数据开放平台存在技术漏洞问题,一旦被非法分子的攻击利用,将造成数据泄露。一旦敏感数据被盗取,由此产生的信息风险不仅是个人隐私信息的泄露,更甚者企业机密信息也存在泄露的风险。据报道,国外一家数据安全公司在调查不同行业客户的160万员工ChatGPT的使用情况后表示,企业员工在使用ChatGPT过程中,将公司敏感数据粘贴到ChatGPT上每周达数百次。2023年4月4日,综合多家媒体报道,自韩国三星电子允许部分半导体业务部门员工使用ChatGPT开始,在20天内便爆出了三起机密资料外泄事件。为保护企业机密信息,目前美国多家等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务;不少日本公司也限制了ChatGPT和类似聊天机器人的商业用途。
三、加强对人工智能技术的法律规制
在国外,以ChatGPT为例的人工智能软件引发的风险引起了多国的警惕。为预防人工智能技术滥用引发的连锁反应,欧盟就企划出台专门的《人工智能法案》,旨在通过确立相关法规保证投放到欧盟市场并在欧盟范围内使用的人工智能系统的安全性。这也体现了加强对人工智能技术运用法律规制的急迫性。为防范人工智能技术发展过程中带来的风险和挑战,近几年来我国聚焦相关的法律问题,也发布了一系列重要的政策文件。为此,加强对人工智能的法律规制,可以从以下两个方面入手,一方面要积极完善人工智能领域的专门立法,另一方面通过设立专业的监督机构加强对人工智能技术的监管。
(一)完善人工智能领域立法
涉及人工智能领域的相关的法律法规,其中《中华人民共和国数据安全法》中明确了大数据平台相关人员的安全义务。此外,新出台的《中华人民共和国个人信息保护法》也明确了个人信息收集、处理和使用的规则。我国目前还没有针对人工智能技术设有专门的法律法规。因此,有必要进一步完善人工智能领域相关立法。
在人工智能技术发展的过程中,人工智能领域专门立法要特别注意对个人信息的保护。应以法律条文形式对个人信息使用者搜集、使用个人信息进行较为严格的规范。例如,禁止应用软件因为用户不同意提供个人信息为由,而拒绝用户使用其基本功能服务,这实质上是对用户知情同意权利的变相剥夺。此外,法律条文可以通过例举的方式对各种违规采集个人信息的行为进行定性。另一方面,针对个人信息处理者而言,应加强立法,进一步明确规定人工智能企业应遵守的义务。督促人工智能企业朝着合法合规化经营,防止数据泄露甚至是威胁商业秘密保护。从部门规章、司法解释再到立法,在个人信息保护愈发趋于严格的大背景下,如何做到依法收集、合理使用、合规运作,成为了每一个数据信息服务类企业无法避免的难题。总之,应加快立法,制定专门法律法规,明确人工智能企业的权责,确立运用人工智能技术的法律边界,以保证人工智能技术在法律允许的范围内良好发展。以此形成促进人工智能良好发展的外部社会环境。
(二)加强对人工智能技术的监管
在人工智能技术渗透到人们日常生活中方方面面的现如今,为了保护个人信息,应使人工智能技术朝着合法合规方向发展。目前引起公众关注的个人数据泄露,以及可能出现知识产权冲突的问题,甚至会演变为严重的信息安全问题。为此,应进一步加强对人工智能技术的监管,人工智能对技术要求较高,因此可以设置专门的监管机构。另一方面要培养专业技术人才,建设人工智能技术监管专门队伍,从而形成有力监督。对于高风险人工智能系统必须在有效的人为监管下进行设计和开发。此外,应提高人工智能系统使用透明度,必要时应附有使用说明,说明应包含“简洁、完整、正确和清晰的相关、可访问和可理解的信息”。对于人工智能企业,应该成立专门的监管机构,以确保开发者承担相应的义务和确定性,降低成本、提高利益相关者的参与度。总之,专门的监管机构对个人信息处理者进行更为严苛的监管。
参考文献
[1] 周汉华.中华人民共和国个人信息保护法(专家意见稿)及立法研究报告[M].北京:法律出版社,2006:03.
[2] 张媛媛,王前,赵永飞.人工智能相关法律问题的比较分析与展望[J].长沙理工大学学报(社会科学版),2019,34(05):8-15.
[3] 宋振君,胡国胜.人工智能的伦理与法律问题研究[J].中国科技信息,2020(16):98-99.