一、问题的提出
在大数据、人工智能无远弗届的时代,算法弥漫于生活各角落,不断形塑美好生活新形态。算法自动化决策以其内在对数据控制的逻辑运作模式和外在的选择与决策力量展现其高效性、智能性,并渗透至当代社会生活的大多数领域。其更是以强大的算力和深度学习能力参与司法决策、行政管理等公共领域之中。算法自动化决策包括辅助型决策与完全型决策,辅助型决策中加入人类的参与与干预,完全型决策中排除人类参与,更多地依赖算法对数据的分析。本文仅针对完全化决策进行讨论。自动化决策在多场景多领域逐步替代人类的自主决策,但其既以高效、智能和理性彰显科技之善,也以误差、歧视黑箱和霸权引发多元伦理和法律风险。
算法自动化决策的广泛应用是建立在算法自动化决策优于人类自主决策的既有观念之上,但这种既有观念仅看到了算法自动化决策的技术工具价值,进而忽视了其在道德判断的力所不逮。在裁断人类道德领域的价值判断时,仅对客观数据进行分析,无法完全理解人类情感中的同情等因素,因而当算法自动化决策出现错误判断时,其具备的恶,并不小于人类决策可能造成的恶。
算法自动化决策引发的伦理与法律的多元风险主要表现在:(1)信息茧房。自动化决策通过对用户数据的收集与分析,表面上让决策结果愈发契合需求,但实质上将用户推向固定的信息,甚至是引发回声和同质化效应。(2)算法黑箱。算法黑箱是对数据输入到输出过程中可能存在的不透明的客观描述,算法黑箱并不必然导致不良后果的出现。但其背后的决策者则可能利用黑箱加剧与用户之间的权利势差,进而演化为算法权力。(3)侵蚀人的主体性。这种数据化包括“主动的数据化”与“被动的数据化”,但无论是主动还是被动,自动化决策已在实质上对人类的自由意志进行构建,通过“轻推”影响决策,进而操纵人的决策,引发对人的自治性的侵蚀。
在面对算法自动化决策引发的诸多现实问题之下,实质上的核心问题是法律应如何应对?文章第二部分将对学界提出的法律介入算法的方案进行梳理与回应,第三部分将朝向对共同善的关注。
二、个人赋权模式与管制模式的提出
(一)个人赋权模式
个人赋权模式,即主张通过赋予个人以算法解释权、免受自动化决策权、被遗忘权、更改权等权利来对抗算法自动化决策。以欧盟《通用数据保护条例》(下称GDPR)为例,其采用了立法的方式赋予个体权利以对抗自动化决策的控制。我国《个人信息保护法》中对于赋权模式也有所体现,如第24条第3款中赋予了个体自动化决策拒绝权。同时,也包括未在立法上有所体现,但学者们认为确有必要赋予个人的权利,如丁晓东等人主张算法解释权的确立。
个人赋权模式是针对算法操纵背后隐含的算法权力而生。在算法社会下必然赋予算法拥有者以算法权力。尽管个人赋权模式赋予了个体以拒绝、摆脱自动化决策的渠道,但个人赋权模式下更多侧重于对个人自治与尊严,常存在对权利行使程度、范围界定不清的情形;此外,个人赋权并未从根本上解决个体理解力的问题,即使行使了权利,也难以实现最终的理解算法黑箱与克制算法操纵。
(二)管制模式
管制模式与个人赋权相对,其更多是寻找外部力量以对抗算法自动化决策产生的诸多危害后果。而此处的外部力量,在于国家力量与公众监督的力量。如有学者提出应当将外部的道德伦理嵌入自动化决策当中,或建立算法伦理审查委员会加强对算法决策合理性、合法性、正当性的审查等,主张既要通过设立专门的监管机构加强对自动化决策的监督和管理,强化问责机制;又主张通过引入其他监管力量,如算法代理人等角色。
管制模式体现对算法的严苛打击,尽管算法决策本身能够增进人类福祉,但该模式下仅承认算法自动化决策技术具备工具性价值,忽视其本身具有的技术价值。管制模式往往导向简单的功利主义立场,而忽视技术实践与法律实践本身的复杂性,容易对技术产生压制,不利于实现算法自动化决策的功能价值。
三、共同善视角下算法自动化决策的法律规制
(一)共同善何以必要
共同善的起点是由人组成的社会整体,由增进人类福祉的基本善所构成。尽管共同善在不同的时代背景下可能会存在不同理解,但那些关于人类追求的福祉的核心却十分稳定。菲尼斯将共同善列举为以下几种:生命、知识、游戏、审美体验、社会性、实践理性和宗教。共同善既保护个人的福祉与完满,又将个人尊严、福祉与共同体之福祉相连结。
共同善在自动化决策下的必要性在于,算法自动化决策的规制方案尽管承认了法律介入算法的必要性,但却不能仅着重对法律与技术的工具性价值的描述,而是应当从法哲学意义上的共同善维度出发,重新审视算法自动化决策背后的算法权力的性质以及法律与自动化决策技术之间的价值关系。
(二)共同善下的算法自动化决策
共同善为人们提供实践的依据,也是为算法自动化决策的规制提供指引。本文无意提出与上文所提及的赋权模式、管制模式等相似的具体规制方案,而意在澄清共同善在算法自动化决策中何以重要。
共同善既为法律价值的构建提供了依据,也为法律算法自动化决策应当以共同善作为基本价值追求。从内部来看,算法的共同善维度体现为对透明度与公正的要求。基于对算法功能价值的实现考量,完全的透明公开难以实现,但并不意味着无法对算法黑箱进行规制,应当将共同善纳入算法黑箱的规制过程,实现算法与法律的互惠。算法自动化决策应当以提升技术实践中共同体的福祉与善好为目标。
从外部来看,共同善中不可或缺的重要面向还应包括正当程序,保障算法自动化决策中的正当程序,既要求保障决策系统的公开性,也需保障程序设计本身的正当性,要求数据输入端与输出端的非歧视性与公正性。将正当程序之要求纳入算法开发、设计和应用场景之转化的全过程。
参考文献
[1]约翰·菲尼斯著,董娇娇等人译.《自然法与自然权利》[M].2005年版.北京:中国政法大学出版社,2005年
[2]张凌寒.《自动化决策与人的主体性》.《人大法学评论》,2020年,第2辑,20-47页
[3]陈景辉.《算法的法律性质:言论、商业秘密还是正当程序?》.《比较法研究》,2020年,第2期,120-132页
[4]郑玉双.《破解技术中立难题——法律与科技之关系的法理学再思》.《华东政法大学学报》,2018年,第1期,85-97页
[5]张建丽.《算法自动化决策风险的法律规制研究》.《法治研究》,2019年,第4期,108-117页
[6]郑玉双.《计算正义:算法与法律之关系的法理建构》.《政治与法律》,2021年,第11期,91-104页
[7]王聪.《“共同善”维度下的算法规制》.《法学》,2019年第12期,66-77页
作者简介:朱凤茹(1997.7-),女,广东揭阳人,广东财经大学2020级法学理论硕士研究生,研究方向:法学理论、法社会学。