一、ChatGPT概述
由OpenAI开发的智能聊天工具ChatGPT一经推出就在全球范围内掀起一股人工智能的热潮,ChatGPT是基于强算法和高算力的智能对话机器人,其强大的智能对话和文字处理功能皆建立在对大量资料的存储和运算中。用户可以通过输入指令生成其所需要的内容,ChatGPT可以根据用户指令,深度学习人类聊天行为,与用户对话。其生成的答复内容涵盖范围极广并且专业详实,甚至可以代替某些领域的基础工作人员。
内容生成式人工智能将显著改变人类的工作方式与交互方式,甚至可能实现以往无法想象的科技变革。但是与其相伴而生的法律风险依然不容小觑,本文主要介绍其在竞争法领域滋生的相关不正当竞争问题及其应对之策。
二、ChatGPT在应用中出现的不正当竞争行为
(一)数据来源合规问题
ChatGPT训练使用的数据多来自于互联网上公开的网站、信息资源库、社交媒体平台等。数据收集过程可能涉及利用爬虫协议等底层技术对数据进行搜索、抓取,再用于训练ChatGPT。如果在训练AI的过程中抓取的数据属于数据主体采用技术措施加密或者是具有禁止第三方爬取数据条款的内容,那么不仅爬取行为本身可能存在侵犯商业秘密的风险,ChatGPT使用该等训练数据向用户输出内容还存在不正当竞争的风险。
对于竞争关系的认定,在互联网领域,法院往往采用广义的理解,认为竞争方式主要表现为通过争夺消费者注意力获取竞争优势,实现经营利益,即使经营者之间不存在直接的竞争关系,经营者也因破坏其他经营者的竞争优势与其产生了竞争关系。
因此ChatGPT完全有可能被认定为与被抓取数据的数据库存在竞争关系。而如果ChatGPT抓取的数据对于被抓取方而言存在商业利益和竞争优势,ChatGPT的抓取行为存在违反Robots协议或法律声明、违反用户协议等不正当情形,从而对被抓取方的预期利益、合法市场份额造成损害,那么ChatGPT抓取训练数据的行为可能构成不正当竞争。
(二)产出作品存在侵权可能
生成式人工智能建立在对海量数据的分析处之上,伴随问题之一就是易生成与其他人相似的内容。ChatGPT可以模仿设计师或艺术家的个人风格,当其以艺术家的独特风格产出内容时,如果该文本被做商用,则可能会损害艺术家的利益,造成重大的商业损失,这可以说是一种假冒形式的不正当竞争。从知识产权的角度来看,此类语言生成类人工智能并非由人脑的自主意识生成,而是通过分析统计人类日常的交流,建立起数据库从而与人类交流。当ChatGPT抓取的文本、代码、视频等是受著作权保护的,有侵犯知识产权的风险。
(三)商业秘密泄漏问题
公司的工作人员在使用ChatGPT时可能会无意间向其输入一些技术信息、商业秘密等(例如公司员工无意间透露公司规划等信息)。这些信息一旦被ChatGPT纳入自身的数据库,若有恶意第三人进行诱导性提问,那么ChatGPT很可能全盘托出。许多大型互联网公司都明确提醒内部员工不要在ChatGPT上泄漏有关公司的机密信息。
恶意第三方的侵入也会使得商业秘密被泄露,不仅包括第三方直接盗取数据,也包括黑客植入算法病毒造成数据污染。ChatGPT的这些行为都有泄露商业秘密的风险,如果被有心人加以利用将可能构成不正当竞争。
(四)层出不穷的搭便车行为
经济学上的搭便车是指不承担任何成本而消费公共物品的行为,对没有强大实力的弱势产品而言搭强势品牌的便车是一条可行的策略。随着ChatGPT的爆火,网络上借着其名号搭便车的牟利行为也大量出现,包括微信公众号、小程序、APP等,它们基本都直接以ChatGPT为名称或者在名称中包含ChatGPT字样,并且商业标识也与其官方图标大同小异,只是图案大小和背景颜色略有不同,借此迷惑消费者以达到不正当竞争的目的。
这些程序不仅和ChatGPT毫无关系,而且大多以免费试用为噱头吸引用户注册使用,再推出收费服务。此类程序的注册主体大多为个人或者国内的网络科技公司,也有一些是公司利用其在海外注册的ChatGPT账号,在国内生成类ChatGPT的镜像产品。
类似程序使用与正版类似的名称和标识,引人误导其与OpenAI实验室开发的ChatGPT有特定性关联,可能构成反法规定的商业混淆不正当竞争行为。
三、ChatGPT不正当竞争风险的规制
(一)对数据利用分阶段规制
在ChatGPT自主训练的过程中如果尚未对他人造成不利后果或构成危险,若对人工智能研发过程作过多限制不利于提高研发人员追求高新技术进步的积极性。因此只要ChatGPT学习训练不对外产生实际负面影响,应对其持包容态度。
在编辑输出程序时,涉及有版权保护的作品需要在事前取得其授权,除非是已经经过著作权保护期或由于其他原因而进入公共领域的作品,否则不能直接使用。在保护商业秘密层面应当加强内容审查及内容过滤,通过技术手段将虚假类、能够识别出自然人的数据以及涉及具体公司商业秘密等信息进行过滤剔除。
(二)政府明确ChatGPT的使用范围,建立ChatGPT标准规范
1、政府可以制定相关法规和政策,规范ChatGPT在应用中的范围和边界,包括对ChatGPT的数据来源、使用场景应用领域、隐私保护等进行明确的规定。
2、政府可以成立专门的技术审查机构对ChatGPT技术进行审查,包括对其算法、数据集、模型训练等方面进行审核,确保其符合国家相关法规和政策的要求。
3、政府可以对ChatGPT技术的违规行为进行监管和处罚,例如对非法获取、使用、泄露商业秘密的行为进行惩罚,以保障公众的合法权益和利益。
(三)建立起全过程的监管制度
1、我国《数据安全法》第6条第4款规定了国家网信部门是统筹协调网络数据安全和监管工作的责任主体,应当对类ChatGPT人工智能系统实施事前评估。
2、根据《个人信息保护法》第61条相关规定,对人工智能的使用进行事中监管。事中监管表现为完善个人信息保护投诉、举报工作机制,定期组织对应用程序等个人信息保护情况进行测评,并公布测评结果,通过用户举报和政府主动审查相结合的方式,保证已投入市场的类 ChatGPT系统未偏离法治轨道。
3、根据《个人信息保护法》第64条,事后监管主要体现在法律应当充分发挥其惩罚功能。主要表现为有关部门可以对违法者进行约谈,责令整改、要求进行合规审计、施以行政处罚等,最大限度降低损害后果。违法处理个人信息涉嫌犯罪的,移送公安机关依法处理。
参考文献
[1]王迁.ChatGPT生成的内容受著作权法保护吗?[J].探索与争鸣,2022(03):17-20.
[2]谢永江,杨永兴.ChatGPT法律风险及其规制[J].南京邮电大学学报(社会科学版):1-9[2022-06-19].
[3]邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J].新疆师范大学学报(哲学社会科学版),2022,44(05):91-101+2.