人脸识别的伦理反思与法律协同治理
​刘心怡
生成PDF 清样下载 引用

复制成功

导出题录

参考文献( GB/T 7714-2015 ) 复制

​刘心怡,. 人脸识别的伦理反思与法律协同治理[J]. 国学研究,2023.6. DOI:10.12721/ccn.2023.157027.
摘要: 人脸识别技术在社会生活中的应用越来越广。人脸识别技术早期应用目的是维护社会安全,其不合理应用引发了伦理风险,数据主体的隐私泄露侵犯人的自由和主体性,算法歧视危及社会公平正义。为了避免这些可能的风险演变为真正的危险,需要法律作出一系列回应。
关键词: 人脸识别;伦理风险;法律规制;知情同意
DOI:10.12721/ccn.2023.157027
基金资助:

一、人脸识别的应用困境表征

人脸识别技术是基于人的面部特征信息进行身份识别的一种生物识别技术。早在1998年的好莱坞大片《国家公敌》中就有对于未来人脸识别技术的画面,近年来的科幻动作类电影《碟中谍4》、《钢铁侠》、《黑镜》中更是对人脸识别的应用和功能展开了大量描写和想象。人脸识别技术在维护社会安全等方面有诸多用途,如人脸闸机、人脸签到、人脸支付和安防人脸识别等。通过人工智能的算法,结合人脸信息和消费、出行信息,判断行为人的消费习惯和喜好,从而方便商家更好地掌握消费者群体的信息,开展有针对性的商业服务。然而,我们很难证明以上人脸识别技术的应用符合维护社会安全的目的理性。例如,小区或写字楼的人脸识别,出入口控制完全可以使用其他的非生物信息验证方式,此类人脸识别应用场景除了更具高科技感和些许便捷度以外,无法经由技术本身的目的理性证成。根据《人脸识别应用场景合规报告(2021)》,有超过七成的小区/写字楼强制人脸门禁,有近1/5的受访者认为人脸识别技术不太安全。人脸识别技术的不合理扩散也由此滋生了社会矛盾,被称为“中国人脸识别第一案”的郭兵诉杭州市野生动物园服务合同纠纷案便是例证。人脸识别技术本身并不涉及伦理评价问题,正是在技术的应用场景中,在人脸识别的不合理扩散中,这种技术应用便异化了,从而出现伦理困境。我们需要对人脸识别技术的扩散进行认真的伦理反思,剖析人脸识别技术扩散的伦理风险,这一伦理反思是法律规制的正当性基础。

二、人脸识别的伦理风险:隐私泄露与算法歧视

人工智能技术最深层的问题是“创造秩序危机”,简而言之,即是人所创造的技术对人的反噬。其源于两个难题,一是终极准则难题,二是因果关系难题。反观人脸识别技术,对其不合理的应用极易引发两类风险:侵权性风险和歧视性风险。

(一)引发隐私泄露,侵犯个人主体性与自由

一般而言,隐私信息应当仅仅由隐私主体所拥有。但由于人脸识别技术中参与方的关系,其在应用中必然要收集和存储人脸信息,这就意味着人脸数据时刻处于不受数据主体控制的状态,而是受到数据控制者的控制。通常来说,人脸作为社交活动中人们身份的代表,并不属于隐私权的范畴,只有当人脸识别技术造成了实际的隐私泄露问题,这种技术应用才是不合理的,才是真正引发伦理风险的。通过图像收集,数据处理等科技方法可以从人们的面部信息中提取出个人的健康状况、财务状况、情绪状况等多种隐私信息。如深网视界科技有限公司对其所掌握人脸信息数据库的未设密码保护,引发大规模数据泄露事件,严重侵害了用户的隐私安全。

(二)加剧算法歧视,侵害社会公平正义

算法歧视具有难以察觉性、持续性和不可逆性。算法歧视可能根源于两方面的原因:一是由程序员的个性特征不同而导致程序本身的设计差异或错误造成,二是可能源自深度学习,由于深度学习样本数据的不全面,导致算法在对待某种数据时得出的结果与其他数据不同。人脸识别的应用在这些因素的影响下,对具有特定性别、种族或地域特征的人的歧视将是持续性的。同时,算法的隐蔽性、不可解释性以及技术中立原则又使得算法歧视难以察觉。托克维尔在《论美国的民主》中批评了以家庭出身、财产和职业将所有的人划分为不同的身份等级,因为身份将人划分为三六九等。而人脸识别技术,似乎也在无形中将人识别为“三六九等”。美国公民自由联盟做了一组测试,将国会议员的照片与犯罪数据库中的照片进行对比,结果有5%的人匹配上了;而单独拿非裔美国议员与犯罪数据库中的照片进行对比,识别错误率超过了20%。麻省理工学院研究团队也发现,商业人脸识别系统中存在着明显的种族歧视和性别歧视。

三、人脸识别规制的域外考察

对于人脸识别可能引发的隐私泄露问题,欧盟出台了成熟的个人隐私保护法,被称为“通用数据保护条例”(GDPR),该条例是围绕知情-同意原则而构建的。其规定同意必须基于当事人自愿,在知悉相关情况后作出,关于面部数据要求当事人必须明示同意。可见欧盟对于敏感个人信息的保护力度强于其他个人信息,不仅对于人脸数据的处理进行“原则—例外”式的立法模式,还对“例外”施加了诸多限制,体现在同意的生效条件、特殊同意问题以及不需同意的法律允许等。相比之下,美国针对人脸识别技术区分了公共行政与商业领域的使用行为,商业领域对人脸识别的应用已经受到生物特征数据隐私立法和司法先例的约束,地方和州一级的立法者则针对政府发布了人脸识别应用的指南。

四、人脸识别伦理风险的法律协同治理

对于防范和规制人脸识别的伦理风险,首先应坚持中国人工智能伦理标准化工作组提出的 “人的根本利益原则”和“责任原则”两大总原则。人工智能应以实现人类根本利益为最终目标,在应用人脸识别技术时,应有明确的法律授权,保护数据主体的主体性和自由,这是根本利益原则的体现;在没有法律禁止的情况下,商业组织和社会机构使用人脸识别技术必须正当,这是人工智能伦理原则中责任原则的展现。其次,针对人脸识别引发的隐私泄露困境,必须贯彻“知情-同意”原则。数据控制者需充分尊重数据主体的知情同意权,只有在得到了相关数据主体的明示同意后才能采集其人脸数据,禁止在未经同意的情况下收集人脸数据。作为一项法律原则,知情同意原则的贯彻需要数据控制者对于法律的充分敬重,也需要数据主体充分意识到自己的法定权利,为维护自己的权利而斗争。数据主体有权拒绝不合理的人脸数据采集行为,有权要求数据控制者公布相关数据的具体使用以及对此进行审查。

最后,对于人脸识别引发的算法歧视困境,应做到社会多元协同治理。与隐私泄露风险相比,算法歧视造成的危害是社会性的,往往涉及对于某一群体的不公正对待,不同于个体的隐私泄露问题。如果说前者不尊重个体,那么歧视除了不尊重个体之外,主要是社会的结构性问题。消除算法歧视的最终结果在于良序社会的建立,而这需要多元主体的协同治理:治理基础保障是伦理规则与法律规制的协同,具备一致的战略目标并兼顾不同利益群体,吸收社会多元力量,形成确定的、可执行的人脸识别法律治理标准,对人脸识别技术乃至人工智能技术科学解释、评估、监测和完善。为更好地促进人脸识别技术和人工智能应用,不仅需要学界提供合理的制度建议,还需要与实务部门和技术部门一同前行。“数字乌托邦”的美好,我们在路上。

》在线投稿系统

*文章题目:
*作者姓名:
*电子邮箱:
*通讯地址:
*联系方式:

  备      注:

*上传稿件:

支持上传.doc,.docx,.pdf,.txt,.wps文件

投稿须知:

1、审稿结果将于1~7个工作日以邮件告知,请注意查收(包含录用通知书、审稿意见、知网CNKI查重报告)。

2、提交投稿后,若7个工作日之内未接到录用通知,则说明该文章未被录用,请另投他刊。

3、凡投寄本刊稿件,如在内容上有侵权行为或不妥之处,均应文责自负。本刊有权对来稿进行文字编辑、加工和修改,如不同意,请附说明,以便妥善处理。

4、多作者文稿署名时须征得其他作者同意,排好先后次序,通知用稿后不再改动。

5、凡投往本刊稿件一经录用发表,其版权归本刊所有。

6、本刊已全文录入中国知网、万方、维普等数据库,如作者不同意被收录,请提前申明,未申明者,本刊一律视为同意被收录。

7、请勿一稿多投。