人工智能的司法应用
童丽萍
生成PDF 清样下载 引用

复制成功

导出题录

参考文献( GB/T 7714-2015 ) 复制

童丽萍,. 人工智能的司法应用[J]. 法学学报,2024.1. DOI:10.12721/ccn.2024.157004.
摘要:
随着人工智能的快速发展,人工智能与司法活动相互融合已成为法律领域的总体趋势。人工智能在缓解案多人少、提高司法效率、提升审判质量、规范办案流程等起到了促进作用。但不能否认的是,人工智能在司法应用方面仍然面临着巨大的挑战。本文旨在从目前人工智能在司法应用方面的挑战寻求解决方法。
关键词: 人工智能;司法应用;算法;司法公正
DOI:10.12721/ccn.2024.157004
基金资助:

在互联网时代下,数据呈现爆发式增长,机器学习能力和大数据技术也逐步成熟,这些都使人工智能迎来了新一轮的发展浪潮。ChatGPT等新一代人工智能的出现,也凭借着其对数据的高效挖掘与惊人的运算能力,对各行各业都带来了全新的挑战。在法律领域,人工智能与司法之间的交互关系,也成为当下的热门话题。我国于2017年7月发布了《新一代人工智能发展战略》,将建设智慧法庭数据平台、促进人工智能在司法活动中的具体应用作为建设智慧法庭的重要举措予以推进。整体而言,人工智能技术与司法工作的融合,对于缓解案多人少的矛盾、提高司法效率、提升审判质量、规范办案流程等起到了积极地促进作用。但由于我们高估了人工智能的发展却低估了人工智能在司法应用方面所带来的负面影响,人工智能的司法应用暴露出技术程式歧视、算法黑箱和无法灵活裁判的种种弊端,由此带来了司法不公、司法不透明以及司法僵化等风险。基于此,本文认为,我们应当明确人工智能在司法应用当中的地位,并在司法应用过程当中遇到的挑战采取积极可行的措施,利用好智能化浪潮带来的红利,不断的推动审判体系和审判能力现代化。

一、人工智能司法应用的现状

在法律领域,随着智慧法院的深度推进,人工智能与司法工作不断深入融合,应用场景也不断丰富,取得的成效也是不容小觑的。

首先是人工智能的客观性提升了类案处理的统一性。司法决定存在“恣意”的风险,为克服这一危险危险倾向,司法决定应当立于客观基础之上。1人工智能是依靠数据计算得出的结论,这一过程不包含人的情绪、愿望等主观意识,因此类案处理的结果往往具有统一性。其次是人工智能的全面性对认知判断的局限有一定的弥补作用。相对于计算机的存储容量来说,人类的存储量是非常有限的,而在司法工作中,信息的联通是很有必要。再次是人工智能的即时性有利于减轻辅助事务的时间压力。在人工智能未进入司法活动时,很多重复性、机械性的事务都需要大量人员亲力亲为,而人工智能可因其即时性节约大量的人力资源,从而将精力转入较为复杂的案件中。

二、司法人工智能应用的负面清单

人工智能进入司法活动中的目的包括提高办案效率以及利用技术的客观性提升公正性等。当前,虽然人工智能在某些层面相较于传统司法活动来讲具有压倒性的优势,但仍然面临着许多难题。

(1)从效率层面讲,人工智能的运用并没有很好的发挥其节约人力的优势

一是人工智能的技术仍然有待提升。目前,在司法应用领域,人工智能的技术弊端愈加明显。例如,对司法工作人员的语音进行识别时,通常会导致后期仍然需要工作人员进行矫正。因此效率的真正提升有赖于人工智能技术的提升。

二是算法安全需要高度重视。智能和风险在算法中是同时存在的,美国密歇根州运用一款名为MiDAS的失业预警软件,由于算法错误,导致了34000多起虚假的失业欺诈指控,加剧了对弱势群体的权益损害与司法系统的运行负担。2通过美国的例子我们可以看出如果在司法智能应用方面出现算法安全事故,会严重损害使用者及使用对象的权益,在法律领域,安全事故的成本巨大且不可逆,还会损害的司法公信力,得不偿失。

(2)从公正层面讲,人工智能的多重风险损害了法律所追求的公正的价值

一是算法设计本身的歧视性违背司法裁判的公平性。歧视问题是人工智能在司法应用中所面临的最大的质疑。算法歧视不仅会使司法裁判的权威性受到社会公众的质疑,其不合理的差别对待也会侵犯公民的基本权利。造成算法歧视的原因是数据信息可能存在偏差,以COMPAS为例,该算法分析依据的是类似犯罪群体累犯风险的历史数据,这些数据本身就含有既有司法判决中的偏见因素。运用本身含有偏见的数据,后续的裁判结果也会带有偏见,形成恶性循环。其次,程序员在设置程序时也会融入自己的价值观和,这样即使数据不存在偏差也会因为技术本身的偏见而导致结果的偏见。

二是人工智能的技术黑箱不符合司法的公开性。商业秘密的不公开性导致人工智能算法本身就是一个黑箱,这本来无可厚非,但一旦应用到司法领域,这种优势本身反而会受到质疑,这是因为司法本身具有公开性。以量刑为例,诉讼双方对人工智能量刑的结果是无法进行有效的质疑的,因为双方当事人甚至审判者无法了解技术本身存在的算法规律,即使可以申请专家鉴定,该技术也很有可能基于商业秘密的考量而无法提供源代码。

三是人工智能的机械裁判可能偏离实质正义。人工智能应用到司法领域中还要面临的一个挑战是,运用技术做出的裁判是机械的、僵硬的,无法应对现实生活中复杂多变的个案。许多法官有时会依赖人工智能裁判的一个原因就是尽量使类案同判。“类案同判”是当下司法实践评判量刑是否公正的衡量标准之一,故司法机关希望能够通过足够的样本,让机器获取“类案”并计算出类案的判决结果以供参考,然而案件事实的多样性导致了严格意义上的类案很难寻找。3法官在审理案件时,往往会面临着逻辑思考、常识判断、人性尊严、个案平衡、价值抉择以及国家政策等问题,显然人工智能的机械性裁判无法包含这些内容。总之,人工智能的机械性裁判追求的是绝对的公平正义,无法判断是否属于合理的差别对待,而传统的法官判案时往往追求的是实质正义,允许合理的差别对待,这也符合宪法的要求。

(三)人工智能司法应用的完善

基于上文中所论述的人工智能在司法领域方面的挑战,我们需要更加清晰的定位人工智能的辅助地位,理性的对待人工智能带来的便利,司法人员也不能形成过度的技术依赖。基于此,不少学者主张和提倡一种对人工智能技术“审慎而乐观”的立场,将智慧司法下的人工智能定位为“司法辅助人”,以“工具主义”作为其功能定位4

(1)要精准的把握人工智能的地位

一方面,我们要肯定人工智能带来的好处,尤其是在一定程度上解决了案多人少的矛盾,因为可以利用人工智能去完成重复性的、机械性的事项,对于这些不涉及价值判断、可重复、可量化的机械性事务,例如语音转换、法律条文定位等等,人工智能完全可以发挥替代性作用。而对于设计价值判断,更加注重实质正义的事项,则更应当发挥其辅助作用,此时,人工智能仅仅是工具,可以帮助人们更高效率完成判决的工具。

(2)要从源头上控制算法歧视的发生

在上文中我们已经论述了算法歧视的产生,最主要的原因是程序员在设置算法技术时融入了自己的价值观念和价值偏见,因此我们可以考虑技术人员与司法工作人员的合作共赢。在嵌入数据时,将专业的法律人员的经验和逻辑植入进去,可以很好的减少算法歧视的产生。技术本身是中立的,但由于原始数据的偏见,导致了技术披着中立、客观的外衣而行实质的偏见之事,这无异于是遏制了技术本身中立的优势。因此,从源头上保持数据的中立,可以很好的遏制后续应用当中出现的歧视。

三、总结

在人工智能的迅速发展中,未来人工智能的应用只多不少,因此,我们不能因为人工智能在司法应用中存在诸多挑战就逃避使用,而应该在不断地创新中接纳和应用。要充分发挥人工智能在司法领域中的优势,保障其在法律的框架之下运行,充分的利用人工智能缓解目前司法领域遇到的难题。在司法这一独特的领域中,科学的使用人工智能过程中,阵痛与过渡是不可避免的,因此仍然应当不断的改革与反思。

参考文献:

1. [美]本杰明·卡多佐:《司法过程的性质》,苏力译,商务印书馆1998年版,第74-75页。

2.Sofia Ranchordas&Luisa Scarcella : Automated Government for Vulnerable Citizens: Intermediating Rights, William & Mary Bill of Rights Journal, Vol. 30, Issue 2 (December 2021), p.395.

3.冯文杰:《人工智能量刑公正取向的双向构建》,载《华东政法大学学报》2020年第6期。

4.谢澎.多元场域与一元惯习-刑事法官的角色诠释[J].2021,42(04):83-90.

》在线投稿系统

*文章题目:
*作者姓名:
*电子邮箱:
*通讯地址:
*联系方式:

  备      注:

*上传稿件:

支持上传.doc,.docx,.pdf,.txt,.wps文件

投稿须知:

1、审稿结果将于1~7个工作日以邮件告知,请注意查收(包含录用通知书、审稿意见、知网CNKI查重报告)。

2、提交投稿后,若7个工作日之内未接到录用通知,则说明该文章未被录用,请另投他刊。

3、凡投寄本刊稿件,如在内容上有侵权行为或不妥之处,均应文责自负。本刊有权对来稿进行文字编辑、加工和修改,如不同意,请附说明,以便妥善处理。

4、多作者文稿署名时须征得其他作者同意,排好先后次序,通知用稿后不再改动。

5、凡投往本刊稿件一经录用发表,其版权归本刊所有。

6、本刊已全文录入中国知网、万方、维普等数据库,如作者不同意被收录,请提前申明,未申明者,本刊一律视为同意被收录。

7、请勿一稿多投。