摘要:随着司法人工智能的不断完善和深度应用,人类法官正在或者已经让渡部分决策权成为不争的事实。相较于人类法官,司法人工智能的经验更加丰富、立场更加客观、运转更加高效。因而有观点认为,司法人工智能将全面取代人类法官展开审判工作。但经验不止于数据,中立不同于孤立,高效不等于质优。受制于司法人工智能在知识结构、应用场景以及潜在能力上与人类法官的差异,司法人工智能只能成为法官的“助手”而不是“替身”。尤其是当面对一些疑难、复杂、新型案件时,司法人工智能是无能为力的,这些案件只能交由人类法官作出裁判。面对着人工智能时代的挑战,法官群体也需要积极转变角色和职能:其一,充分利用人工智能的辅助裁判功能,努力成为更理性化的法官;其二,充分发挥人类的良知、正义感和同情心展开境遇想象和情感互融,努力成为更温情化的法官;其三,在提升自身专业素养、审判经验的同时,积极学习人工智能相关知识和技能,努力成为更精英化的法官。
本文源自陈锐; 王文玉, 重庆大学学报(社会科学版) 发表时间:2021-07-27
关键词:司法人工智能;人类法官;角色定位;司法经验;价值判断
随着大数据、云计算、神经科学、区块链、语音文字识别等领域技术的突破,人工智能迎来了新一轮的发展高潮,一系列工作岗位已经或正在被更安全、高效、经济的机器所取代。甚至是人类法官,这一曾被认为最不可能被机器取代的岗位之一,也开始面临着人工智能的挑战。随着司法人工智能的不断完善和深度应用,人类法官正在或者已经让渡部分决策权成为不争的事实。有学者指出,若人工智能不但可以提出有说服力的论点,还能在判决书的写作方面超越人类法官,那么,可靠性并不逊色于人类且成本效益更优的人工智能就应当被视为法官[1]。当前,已经有人工智能在司法实践中表现出了优于人类法官、专家的裁判预测准确率。如美国伊利诺伊理工大学与南德克萨斯法学院以美国最高法院 1791 至 2015 年的数据信息为基础,开发了一种算法,在对 1815 至 2015 年间最高法院法官的决定和投票展开预测时,其准确率高达 70.2% 和 71.9% ,已经超越了法学家 66%的预测准确率[2]。纵使如此,本文仍认为,一方面,我们应当理性地看待司法人工智能所带来的挑战,即使是仍然处于猜想阶段的强人工智能的出现也并不意味着人类法官的工作会被完全替代;另一方面,我们需要接受人工智能时代到来的事实,积极推动法官①角色和功能的转型升级,以回应人工智能时代对法官角色定位的新需求。
一、司法人工智能相较于人类法官的优势
在新一轮人工智能浪潮中,人们不再热衷于通过某一人形机器人的发明以全面替代人类在所有领域的思考或劳动,而是希望机器人能够在某一领域替代人类的体力或脑力劳动。即依照控制论的观点,只要机器能够在某一领域内做和人一样的事情,就可以被称之为人工智能。本文所指的人工智能自然是能够模拟法官展开司法裁判的机器或者系统。若人工智能在司法裁判领域能够模拟法官所做的活动,达到以假乱真甚至是超越法官的效果,那么人工智能成为法官的“替身”,替代法官展开司法裁判将是可能的和值得被期待的。从当前人工智能在司法领域的应用实践和发展前景来看,人工智能在以下几个方面有着人类法官所不具备的优势。
(一)经验更丰富的司法人工智能
面对詹姆士一世“国王为何不能当法官”的质疑,柯克大法官指出,“法律乃是一门艺术,一个人要想获得对它的认识,需要事先经历长期的学习和实践”[3]。究其原因,司法是一项理性化的事业,需要法官丰富的审判经验才能够处理好法律的适用、纠纷的解决、正义的弘扬、社会有序化的引导等一系列事关重大但又难以拿捏分寸的事项。由于经验不同于全称命题或判断,其是对事物之间常态联系的一种不完全归纳,因而经验的盖然性程度和归纳样本数量的大小息息相关。与人类通过长期训练以及审判实践获得经验的方式不同的是,拥有数据存储、阅读以及算法、算力优势的司法人工智能可以对海量数据的全部样本展开分析和学习,掌握法官群体所积累的共性经验,获得更为开阔的法律视野和更为丰富的司法实践知识,从而轻易超越人类法官智慧的“临界点”。
如在事实认定中,当证据和待证事实之间的关系不确定时,司法人工智能可以根据对大量先例经验的学习,量化证据要素和事实结论之间的盖然性,从而避免在不确定条件下,法官囿于个人知识和经验的不足而忽略一些重要的案件信息,作出不合理甚至错误决断的风险。在实践探索中,贝叶斯公式能很好地描述在新证据被引入之后,如何调整依照初始证据所认定事实的盖然性程度[4]。又如在对事实展开评价时,司法人工智能基于对法官整体经验的学习,不但能够严格依照先例对简单案件作出具有可预测性的裁判,且对于疑难、复杂、新型等法官个体经验不足以有效应对的案件,司法人工智能也可以通过对法官集体生活经验和整体理性的发掘而作出更加可靠、稳定的判决,避免法官个人通过臆想展开裁判的不确定性风险。因而有学者指出,“相较于那些没有宣布法律原理发生广泛变化的案件,在依赖司法裁量权的普通案件中,机器能够更加有效地预测案件的裁判结果”[5]。
司法人工智能相较于人类法官经验更加丰富的优势还体现在对同案同判目标的实现上。同案同判是保障司法裁判平等性和安定性的基本要求,也是通过司法裁判向社会输出稳定的行为规则信号,从而实现社会行为有序化的重要方式。德沃金认为,“同案同判所要求的不外乎是法院对所有的人都以一个相同且具有融贯性的方式行动,把自己对某些人适用的公平或正义的实质性标准,扩张至每个人”[6]。但在实践中,同案不同判现象的存在已经成为困扰我国司法公正性的顽疾,其会引发民众对法官裁量正当性和合法性的质疑,最终将有损于司法公信力的建构[7]。随着司法改革的深入,司法公开的进一步完善,同案不同判现象对司法的权威性、社会认同性所造成的损害将进一步加大[8]。
丰富的经验对于应对同案不同判难题同样具有重要意义。这种经验的掌握不在于审判实践的历练,仅仅在于掌握的先例数量以及对先例中各要素与裁判结果相关性的总结程度。显然,与人类法官相比,司法人工智能在对先例这一审判实践经验的掌握上有着明显优势。大数据把司法历史编纂成书,算法为这本书籍绘制出清晰的知识图谱和简洁的索引目录。司法人工智能在司法信息的存储、查询和分析能力上相较于法官个体有着巨大的优势。如我国建立的裁判文书网已经有突破 1 亿份的裁判文书,面对浩如烟海的先例,法官个体想要浏览一遍这些文书是不可能的任务,更不用说对这些文书的要素予以全面掌握。而司法人工智能则能够凭借算法和算力的优势,对这些文书展开深度学习、知识计量和图谱绘制,并挖掘其中隐含的动态相关性规律。当有类似的裁判要素被输入之后,司法人工智能可以根据要素的相关度关联先例中所隐含的裁判知识链,并给出与之相匹配的案件裁判结论或量刑幅度等。随着司法自动化程度的提升,司法人工智能有希望习得从立案到执行的全程数据,这意味着通过对海量全样本数据的学习,司法人工智能将在可量化维度上,拥有远远超出法官个体能力的知识和经验。
(二)立场更客观的司法人工智能
达玛什卡在描述理想的纠纷决策者时,指出在实际的纠纷之中,由于“民众清醒地认识到诉讼结果是不确定的,且正确的结果是一种难以获得的奢侈品,因而他们期待的无非是从决策者那里能够得到平等的对待——也即希望决策者能够保持一种中立的、客观的或公允的姿态。”其提出,理想的决策者一方面应当是依靠当事人所提供的、经过当事人辩论过滤后的信息,而不是法官主动开辟信息渠道所获得的信息;另一方面,理想的决策者应当处于一种白板状态,“如果决策者是对当事人之间的法律论辩保持开放状态的空白接收器,那么纠纷解决程序就会显得更加纯粹,也能保持一种高水平的运转状态”[9]。客观、中立的立场既是保障司法过程公正性的重要因素,也是司法裁判获得民众认同的前提。然而,实践表明,由于法官个体的喜好、偏见、倦怠、腐败等问题,希冀人类法官保持中立、客观或公允的姿态是一种难以获得的奢侈品。“无论是作为一个群体还是个人,人类法官都是出了名的不一致。任何一个法官对环境的敏感性和对宽大处理的偏好也会随着他们是饿了、累了、无聊了、工作过度了、不知所措了还是分心了而发生巨大的变化”[10]。
与人类法官相比,司法人工智能的立场显然更加中立和客观。理查德和艾丽西娅指出,使用人工智能裁决潜在的好处是双重的,“首先,因为一个相同的算法可以解决每一个相关的争议,人工智能裁决可以减轻,甚至消除由于在意‘好法官或富有同情心的法官’的名声而导致的任意性裁决。其次,裁决过程本身的标准化可以兑现成文法中关于正义的司法承诺,消除司法决策中的人为偏见”[11]。司法人工智能的基本运作机理是以司法大数据为样本,通过语义分析和数据分析建模,从而逐一甄别数据样本中可能影响裁判结论的相关因素,然后将这些数据打上相应标签并整合成结构化的知识链条,最终实现精准的自动化裁判。这一注重司法各要素的可测量性、依靠独立自主的算法、能够重复应用的法律系统可以有效摆脱人类法官自由裁量的任意性,推动法律的统一适用,消除法官主观价值偏见以及案外因素对裁判可预测性的影响,最终保障司法裁判的客观性和公正性。
虽然当前司法人工智能还无法完全替代法官展开裁判,但其已经被广泛用于诸如量刑、赔偿金额的计算、证据的审查等法官自由裁量领域,实践表明其在避免法官裁量的肆意性方面效果显著。如美国的一些州已经使用 COMPAS 对被告展开再犯风险评估,并由此确定刑期的长短[12]。当被告卢米斯认为 COMPAS 对其量刑过重,违背程序正当性而上诉时,威斯康星州最高法院对其诉讼请求予以驳回,并指出:“COMPAS 系统对风险展开评估并决定量刑的功能,是通过具有独立性的子项以及复杂的算法来实现的,其最终得出 1-10 的评定级别,这一算法系统具有中立性和客观性,因而是符合程序正义的。”[13]随着技术的发展成熟,司法人工智能会被更加广泛用于司法决断的诸多领域,其客观、中立的立场将会显著提升司法裁判的可预测性和可接受性。
(三)运转更高效的司法人工智能
贝卡利亚曾用“法官懒懒散散,而犯人却凄苦不堪”[14]来表明司法效率的重要性。但当前,情况又有所不同。随着法治理念在全球的确立,诉讼爆炸引发的司法案多人少的困境不但使当事人遭受司法的负累,甚至法官也不堪其苦:过多案件的压力不但使办案质量遭受考验,还在一定程度上加速了法官的流失。虽然我国采取了诸如打造多元化纠纷解决机制、推动案件繁简分流改革、优化审判管理制度等措施,希望能够缓解案多人少的矛盾。但在不改变原有裁判产出方式的背景下,通过深挖现有制度潜力的探索并没有给司法效率带来实质性变革。而借助强大的算法、算力以及凭借标准化、流程化、重复性的特点,司法人工智能可以在短时间内完成需要大量人工和时间才能完成的诸如证据审查、案卷制作、要素式裁判文书的生成等工作,从而以变革生产工具的方式推动司法效率的提升,有效缓解案多人少的司法困境。
当前司法人工智能主要从以下方面提升司法效率。在司法信息处理智能化方面,人工智能法律系统在在线立案、在线开庭、证据审查、审判信息自动生成等方面可以有效节省人工和耗时成本。如苏州中院开发的庭审语音识别系统,能够自动区分不同庭审发言对象,且语音识别准确率达到 90%以上。实践统计表明,其可以将庭审时间缩短 20%-30%,对于一些复杂案件,庭审时间能减少 50%以上,且庭审记录的完整度也达到 100%[15]。又如在达席尔瓦·摩尔诉阳狮集团一案中,法官充分运用人工智能技术上的优势,对多达 300 万份的数据展开清理工作,将其中大量与案件无关的数据剔除出去②。在文书制作自动化方面,人工智能可以通过文字识别、图像识别、语义分析、要素关联等技术将案件的相关材料予以解构,并依照给定的知识图谱重新组合,从而自动生成简明扼要的令状式、要素式、表格式等的裁判文书。当前,对于一些交通损害赔偿、银行合同借贷以及政府信息公开等事实清楚、权利义务关系明确、双方争议不大的类型化案件,通过裁判文书自动生成的方式可以大幅缩减法官的工作量 [16]。如重庆市以信用卡、金融借款类案件为突破口,通过将案件审理规则要素化并嵌入案件审理全过程的方式开发了供法官使用的“智能专审”系统,这一系统可以智能收集、整理庭审阶段所确认的信息并自动生成令状式的裁判文书[17]。又如海南法院运行的量刑规范化智能辅助系统,在量刑规范化的案件中,将裁判文书制作时间缩短近 70%,程序性法律文书的制作时间更是减少近 90%[18]。
虽然司法人工智能在这些方面的应用还没有达到完全自动化的程度,但当前的探索实践已经表明人工智能在提升司法效率方面拥有显著的优势。如“河北在全省 178 个基层法院上线的‘智审 1.0’审判辅助系统,帮助法官减少了近 30%的工作量,大幅提升了审判质效” [19]。“贵阳政法大数据办案系统在花溪区和经开区试运行期间,将办理同类案件的时间同比缩短了 30%,同时案件办理质量也得到了显著提升”[20]。随着技术的进步和完善,人工智能一旦应用于从立案到执行的司法全过程之中,那么司法裁判的效率将会得到质的飞跃,阻碍司法正义的案多人少难题也将得到彻底解决。
二、只能作为法官“助手”而不是“替身”的司法人工智能
虽然从当前的司法应用实践来看,司法人工智能尚处于开发和探索阶段,许多工作还需要在法官的辅助下完成。但延续上文司法人工智能的发展趋势,随着技术的成熟和实践应用的深化,司法人工智能的这些优势会进一步被放大,法官被人工智能所取代似乎已经在所难免。但在对司法人工智能的可能空间与内在限度展开更加深入的探究之后,不难发现,司法人工智能存在着知识结构、应用场景以及潜在能力上的缺陷,这些缺陷决定了其只能成为法官的“助手”,而不是“替身”。
(一)经验不止于数据
司法人工智能之所以能够复制人类法官的裁判经验,在于其可以通过对被数据化的司法信息的学习,掌握要素之间的相关关系,并将这些数据经验运用于决策之中。但显然,数据化的经验和司法裁判中实际需要的经验之间还存在着一定的差距。
首先,并不是所有的经验知识都能够以数据化的方式表达,许多知识需要决策者的参与、经历和感悟才能够获得,而这些知识的获得是无身性的人工智能所力不能及的。要想作出适当的裁决,决策者不但需要掌握法律知识,还需要掌握“庭审说话的艺术”“化解纠纷的技巧”“发掘隐含争议的能力”“倾听当事人情感和心理需求的耐心”等等,才能合理地处理镶嵌于社会生活之中的法律纠纷。显然,这些知识都来自于法官长期的社会生活以及司法裁判经验,而以单一的案例或法规数据库为经验来源的司法人工智能往往难以掌握这些综合性的、亲身体验性的、需要要素迁移和联想的知识。这些需要通过对真实物理世界的长期参与和主动感知才能习得的知识也很难通过数据化的方式简化为“一种无须满足任何更多的条件即可生成‘是’与‘否’的二元选项的代码”[21],这决定了司法人工智能的应用只能够被限缩在一些只需要单一的知识结构、有明确对错答案以及存在可辨别的潜在模式和结构的场景之中[22]。
其次,数据化的经验往往只是明示的经验,而明示信息背后许多默会的、隐性的因素无法通过数据化的方式被人工智能习得,这造成司法人工智能所依赖的数据经验是一种片面的经验。裁判文书是当前司法人工智能系统建构的基础性资产,然而实践中许多影响决策结果的关键行为信息却是高度非文字化和非数据化的,其并不会反映到裁判文书之中。如法官的学历、性格、生活经历、个人偏好,法官心证的过程,合议庭、审委会的讨论情况,当事双方诉讼文书的质量,社会舆论的波动,人情、行政的介入等等,这些重要但被掩盖的隐性因素是人工智能无法习得的。因而有学者指出,“人工智能对审判经验的吸收和设计者对经验的标准化和规范化总结仅是审判所需经验的很小一部分,人工智能仅是对智性部分模仿的初级阶段”[23]。片面的经验无形中会放大和固化司法人工智能决策的偏差性,进而影响其决策的稳定性和可接受性。
最后,司法人工智能只能延续过去的经验,无法创造未来。经验的适用是司法裁判的形,而经验的创制才是司法裁判的魂。法律不可朝令夕改,但也不可一成不变,其需要根据社会发展需求而适时发生变动。“稳定性和确定性本身并不足以为我们提供一个行之有效的、富有生命力的法律制度。法律还必须服从进步所提出的正当要求”[24]。运动与静止、保守与创新、守成与变迁之间的辩证平衡,正是法律生命力的来源。由于立法的滞后性,司法往往是社会需求的前沿岗哨,当社会价值变迁以致获得民众广泛认同时,就需要法官通过法律解释、法律创制等方式适时地推动法律发展,从而实现法律的稳定性与适应性在社会需求变革以及技术创新发展背景下的平衡。只能学习以数据化方式呈现的过去经验而无法创制新经验的司法人工智能,反而会进一步强化“技术—法律锁定效应”,造成法律的停滞和僵化③。经验的应用和经验的创制之间是一种重复与创造的关系,只要作为司法裁判灵魂的经验创制把握在法官手中,法官被司法人工智能所替代的论断就无法成立。
(二)中立不同于孤立
虽然司法人工智能本身是客观、中立的,但由于“喂养”人工智能的裁判文书并没有排除价值判断,因而司法人工智能是否真的如其所宣称的那样客观、中立是存疑的。此外,司法正义的特性也决定了司法裁判并不能完全脱离价值判断和生活情境而孤立展开。
首先,司法人工智能不可避免会学习到内含于裁判文书中的人类法官原有的价值倾向,从而影响其决策的客观、中立性。虽然司法人工智能本身能够中立、客观地展开裁判,但通过裁判文书“喂养”的方式,法官的价值倾向早已融入司法人工智能的基因之中。人工智能通过对已有裁判文书的分析、挖掘、归纳、提炼,从而对法官过往的裁判展开精准画像和深度学习,最终依照法官决策要素之间的相关关系对裁判结果作出预测。虽然司法人工智能算法预设了其不受主观价值判断干涉的中立地位,但“喂养”人工智能的裁判文书却可能早已暗含法官的个性甚至偏见。在“偏见进,则偏见出(Bias In,Bias Out)”定律[25]的影响下,司法人工智能算法会不可避免地产生价值偏差,从而偏离客观公正的轨道。
如有学者在对美国司法系统所使用的预测被告人再次犯罪及其危险程度的人工智能系统 COMPAS 的裁判倾向展开了统计分析后,发现黑人所得分数和白人所得分数相比要高出 45% 左右[26]。又如,在一些样本案例数量偏少的新型案件中,少数法官的价值偏见可能对司法人工智能裁判结论产生决定性影响。基于大数据、互联网、自主迭代算法的司法人工智能的价值偏见往往是隐含的,难以被轻易感知和发现,而人工智能又缺乏自我反思和自我修正能力,故司法人工智能所习得的价值偏见等会随着机器的反复、大量实践而被进一步固化,这些因素决定了司法人工智能并没有想象中的那么客观和中立。
其次,司法实践中的价值判断是不可避免的,而这正是脱离了社会情境、保持“中立” “客观”的司法人工智能无法自主决策的。认为司法人工智能可以替代法官的观点基于以下论断:拥有稳定的适用对象(案件),明确的适用前提(法律文本和案件事实),遵守严格的程序,并且需要得出唯一确定性的裁决结论,因而司法裁判是一项客观的、可以排除主观价值判断的事业。司法的这些特性似乎完美契合了人工智能的形式逻辑内核,自然成为了人工智能研究的典型样本和最佳对象[27]。但在具体实践中,无论是事实的认定还是对法律规定的理解和适用往往都不会以理想中明确的方式呈现,其时常需要法官发挥主观能动性,运用自由裁量展开一定的价值判断,从而通过裁剪事实和解释法律的方式,实现二者之间的贴合。如在“帕尔默杀害祖父案”“陕西开发商状告自己违法案”中,排除价值判断而简单地将法律和事实予以拼接的裁判显然违背了“任何人不得从自己的违法行为中获利”这一一般性社会正义理念。在司法裁判中,价值选择问题往往是不可避免的。德沃金指出,法律推理,便意味着需要将待决的、具体的法律问题,放置于涉及法律推演的诸多原则或政治之道德性的庞大系统之中展开考量。实际上,若你没有将裁决经过一个巨大的、由诸多复杂原则所组成的、能够统揽全局的系统的过滤,那么这意味着你没有对这一法律问题进行过正确的思考[28]。在出现价值冲突或价值选择难题时,唯有人类法官根据具体个案的实情,参照社会一般正义理念、时代发展需求、政策考量等因素展开道德衡量才能实现法律效果和社会效果的统一。
当前实践表明,无论是出于对人类尊严的考虑,还是价值的无法量化性,希冀司法人工智能展开价值判断都是一种不可行的进路[29]。有学者指出,人们可能会就案件的裁决为何是以此种方式而不是彼种方式展开争论,这些争论中往往都会涉及到一般常识和经验、先前的判例以及与公平正义相关的理念等,而这其中的大部分内容都早已超越了人工智能的能力限度 [30]。除了价值判断之外,内嵌于社会治理之中的司法,还需要承担引领社会正义理念、化解潜在社会矛盾风险、贯彻政策方针等职能,而这些是脱离社会情境的司法人工智能所无法理解和参与的。
最后,司法人工智能自动化决策的特性将当事人排除于决策过程之外,其既无法深入参与诉讼过程,表达自己的诉求,也无法感知决策过程,获得明确的决策理由,这将有违当事人对程序正义的认知,降低司法决策的可接受性。可信赖司法需要的是遵循程序正义的司法,程序正义虽然要求法官处于中立地位,不偏不倚地对案件展开裁判。但研究表明,在对程序正义的感知中,中立性排在过程控制和可信度之后[31]。个人对程序正义的感知和信赖往往来源于司法程序对当事人的开放程度:当事人参与度越高,司法就越值得信赖。如卡斯珀等人在研究因重罪在监狱服刑的 400 多名囚犯后得出结论:律师与他们在一起的时间,警察是否有尊严地对待他们以及他们在审前拘留中等待了多长时间等程序正义问题才是当事人感知公平正义的决定因素[32]。显然,只有在法官主导的司法程序中,当事人才能真实感受到其和决策者之间紧密的个人联系。这种当事人能感知的过程控制是个人相信程序合法性的基础。
但自动化的司法人工智能决策方式使当事人参与法庭辩论并通过观点交锋更正或深入表达观点的权利被隐没,递进式的诉讼程序被阶段化的论断所替代,这将违反程序正义所希望达到的过程控制状态:当事人既无法实质性参与诉讼过程,也无法在诉讼进程中向决策者完善或深化对案情的陈述。此外,法治是理由之治,可信赖的程序正义还需要法官向当事人解释其决策的理由或过程。而司法人工智能的算法黑箱困境使决策的透明度和可解释性成为难题。人们只能得到“裁判自动售货机”所吐出的最终判决,却对“货物”生产的过程一无所知。“不幸的是,实现高水平程序正义的一些因素与大数据算法本质上是不兼容的:被告永远不会感觉到与决策者的个人联系,这将降低他们的可信度,而且随着计算机对所做决策的影响力越来越大,他们会感觉到更少的过程控制。„„只有当算法的计算对受影响的人来说是透明和可理解的,算法才会显得可信。不幸的是,众所周知,大数据算法是不透明和不可理解的,有时甚至对那些应用它们的人来说也是如此”[33]。
(三)高效不等于质优
对于司法裁判而言,正义的裁判意味着决策者能够在最短时间内作出最优决断。虽然司法人工智能在提升裁判的效率方面有着优异的表现,但限于其所学习的裁判文书的质量以及数据和算法模型的颗粒化程度,司法人工智能产出的判决质量往往无法得到有效保障。加之社会民众对机器裁判苛刻的错误率容忍度,进一步提升了机器替代法官的难度。
首先,裁判文书公开不全面以及裁判文书质量良莠不齐等因素决定了司法人工智能的决策并不能达到预期的全面、准确状态。司法人工智能决策系统是通过学习以往法官裁判经验并作出分析和预测的系统。因而,司法数据的数量和质量直接关系人工智能法律系统决策结果的合理性。但从具体的实践经验来看,无论是司法数据的全面性还是优质性都面临着一系列问题。以裁判文书为例,虽然我国已建立全世界规模最大的裁判文书数据库,为人工智能法律系统提供了体量巨大的数据基础。但事实上,我国裁判文书公开并没有想象的那么全面。据学者统计,已公开的裁判文书的数量可能仅占审结案件的 50%左右[34]。并且由于裁判文书公开规范不足、监管不力、人力资源紧缺以及公开裁量滥用等因素,这些公开的裁判文书还存在一句话文书、空白文书以及重复文书等情形,使裁判文书的质量难以得到保障[35]。由于公开裁量的滥用,被随意删改、删选后的上网文书会误导机器的学习,使人工智能在作出预测时面临选择性偏误的风险[36]。如果想要改善当前情况,则需要对裁判文书数据库展开清洗,而要对如此体量巨大的数据库展开清洗显然是一项费时费力的浩大工程。通过以上分析,可以解释为何当前许多司法人工智能审判模型的建构往往是以某一地区、某一类案件中抽取的少数样本案件为基础展开的。这种建构方式虽然保障了数据来源的优质性,但脱离了全样本数据学习的司法人工智能,其客观性和准确性优势将会遭到削弱。
其次,司法人工智能决策的科学性有赖于精细化的数据和模型,但要实现二者颗粒化程度的提升还面临着诸多技术上的难题,需要付出大量的人工成本。当前司法人工智能的主体算法往往是通过知识图谱加深度学习的方式建构的。“通过可视化的方式对案件展开精准画像的知识图谱的可靠性依赖于数据和模型的颗粒化程度,模型和数据越精细,知识图谱的效果才越好”[37]。但要提升数据和模型的颗粒化程度并非易事:其一,需要面对机器语言和自然语言之间的转化难题。机器语言和自然语言之间存在天然的差异,自然语言的多义性、语境化、模糊化等特征使通过词向量转化和分词技术等抓取核心语素和语义为基础的机器语言很难全面、准确地识别和理解案件中的复杂语义。其二,正如上文所提到的,由于无法习得数据背后所隐含的影响法官决策的因素,司法人工智能所学习的数据的完整性、可靠性无法得到保障。这使得精准的司法画像离不开人工的识别与输入。但即便是对人工而言,发掘、整理和量化隐含因素也是一项体量浩大且无法精准把握的工程。其三,由于司法人工智能缺乏主动反思算法缺陷和理解偏差并自我更正的能力,因而其设计上的缺陷往往需要人工的干预和纠正,这造成了已不堪重负的办案人员还要额外承担僵化系统的试错负担。如在一起盗窃案中,“206 系统”识别出案卷缺少并不需要鉴定的人民币的鉴定意见,并要求办案人员作出解释。办案人员向学者抱怨说,“为何系统犯错却需要由我来解释?这就很不合理,此后我再也没有用过那个系统”[38]。以上这些因素决定了在人工智能的司法应用领域“有多少人工才能产出多少智能,有多少优秀人工才能产出多少优秀智能”的特性,为了保障知识图谱的准确性,需要大量的人工通过打标签、选取结点等方式介入和干预司法人工智能系统的设计和应用。而这些显然和人工智能所预设的高效性背道而驰。
最后,民众对司法人工智能决策错误率的承受度天然低于人类法官决策。但在人文社科领域,当正确率达到一定程度后,即便少许的提升可能都需要付出无法承受的高昂经济成本。强鲁棒性和高容错性提升了人工智能在具有一定抽象性和不确定性的司法裁判场景中的预测性[39]。并且在许多测试中,人工智能已表现出超出人类法官的准确性。但民众对于司法人工智能的准确率要求显然高于人类法官。其中缘由既有人类本能对新兴事物可靠性的担忧,也有对人工智能自身缺陷的担忧:算法黑箱的存在使发现和纠正人工智能偏误的成本极高,且高效、自动化的人工智能应用有引发大规模错判的现实风险。有学者指出,“在作为社会正义最后一道防线的司法中,哪怕人工智能仅有 1%的误差也是无法接受的,因为人工智能每年可能要处理上百万件刑事案件,纵使 1%的误差都有可能造成上万件冤假错案。这是民众所无法接受的”[40]。然而在人文社科领域,希冀达到 100%的正确率只能是一种镜花水月的理想,甚至当误差率达到一定程度后,纵使少量的优化也需要付出高昂的经济成本。故高效和质优的不可兼得性在一定程度上否决了人工智能完全替代法官裁判的可能性。
三、人工智能时代法官角色转变的前景展望
近年来,人工智能在司法领域的运用已取得丰硕成果。如 2016 年,伦敦大学学院、谢菲尔德大学等高校科研人员研发的人工智能算法在对欧洲人权法院 584 个案件的数据分析后作出裁决,最终有 79%案件的裁决结论和法官一致[41]。随着我国智慧法院建设的不断推进,多地法院也推出了不同版本的智慧审判系统,如北京法院的“睿法官”,上海法院的“206 系统”,河北法院的“智审”审判辅助系统,等等。然而囿于人工智能与法官裁判的差异性,这些人工智能实际上属于初级的“简单案件—法律适用量刑系统”,而不是“复杂案件—法律推理系统”。虽然根据诉讼“二八定律”,法院的绝大多数案件都可以归为简单案件[42],并且通过案件自动繁简分流系统将简单案件自动分配给人工智能予以裁判④,从而有效地将法官从繁琐的事务性、重复性劳动中解放出来。但这并不意味着法官在司法裁判中的主导性地位发生了动摇,疑难、复杂、新型案件才是凸显决策者司法价值和作用的试金石和演武场。基于上文分析,人工智能对于这些案件是无能为力的,只能将其交由人类法官才能得到公正、合理的裁判结果。与此同时,人类法官也不能无视人工智能所带来的变革和挑战,应当积极转变自身的角色和功能,充分利用“人—机法律系统”以扩展审判能力、提升审判质量,从而有效回应人工智能时代对法官角色定位的新需求。
(一)更理性化的法官
司法裁判是一项理性化的事业,虽然司法人工智能无法完全替代法官,但司法人工智能可以通过承担重复性、事务性工作以及裁决简单案件的方式,帮助法官节省大量精力以投入到疑难、复杂等案件的事实认定、法律适用等裁判的核心工作之中。不仅如此,司法人工智能还能够通过为法官提供全面的参考数据以及简单的裁判预测等,避免法官受到价值偏见和知识结构偏差的影响,作出不合理甚至错误的裁判。因而,我们应当充分发挥司法人工智能在提升法官决策理性化水平中的作用,从而为司法公信力的提升、裁判正义的实现打下良好基础。
其一,法官应当充分利用司法人工智能在知识储备和检索上的优势,充分占有和发掘与裁判案件相关的法律法规、先例中的裁判经验,从而降低司法裁判的不确定性,提升司法裁判的公正性和可接受性。借助人工智能算法和算力的优势,法官原有认知的有限性和模糊性将大为改观。当法官将案件相关要素输入系统后,人工智能可通过全量数据检索的方式,自动推送相关的法律规定以及类似案例,有效扩展法官对案件认识的广度和深度,帮助法官成为一个“开明和信息充分的人”[43],避免片面占有数据信息的法官作出缺乏可预测性的裁判。
其二,无论是先例的推送还是人工智能的裁判预测,都为法官提供了一种先在决策方案,这使法官需要转变原有“决策—论证”的裁判思维模式,回归到“论证—决策”这一更具正当性的决策框架和范式上来。正当的裁判应当是法官通过双方当事人提供的证据、展开的辩论,结合相关法律规定推导出相应的裁判结果。而现实中,法官往往首先凭借对案情的大致了解得出一个模糊的裁判结论,然后再围绕这一裁判结论展开一系列的司法审判活动。受信念固着[44]和锚定效应[45]的影响,这种先入为主的论证方式会使法官脱离本应当秉持的客观、中立立场。而司法人工智能则通过先例推送和裁判结果预测等方式,率先作出了可供法官参照和辩驳的裁判结论。如在上海法院,若法官的判决结果和上级法院裁判结果之间存在的差异达到 85%以上,其所应用的“206 系统”便会向法官发出预警。而当法官要坚持这一裁判时,系统会自动将此案推送给庭长以供讨论[46]。这样从根本上变革了法官原有的基于对案件模糊印象的直觉而得出裁判结论的审判思维模式,消除了法官原有证实性偏见的前提和基础。与此同时,法官还需要努力论证先例裁判结论或者机器预测结果这一人工智能提供的“它者方案”,从而最大限度削弱了法官的直觉偏见对公正裁判可能带来的不利影响。
其三,在利用人工智能辅助裁判的同时,还应当防范法官过度依赖司法人工智能决策而被“驯服”的风险。正如上文所分析的,限于司法人工智能本身的缺陷,其无法完全替代法官展开司法决策。然而在具体的司法实践中,却可能出现法官为了避免风险、减轻断案压力主动交出司法裁判的决策权,从而被人工智能“驯服”,成为司法人工智能的“助手”。为避免此种风险的产生,可以通过合理分配司法责任的方式调动法官自主裁判的积极性。虽然关于人工智能在司法领域的责任归属问题存在诸多争议,但在明确了法官和人工智能的主次定位之后,将错判或误判的主要责任分配给法官,将次要责任分配给算法提供者或法院将是一种更具可行性和合理性的责任分配方案。当将主要责任分配给法官之后,法官自然会主动发挥自身理性,在人工智能力所不能及之处独立自主、勤勉谨慎地展开司法活动,以保障裁判结果的正当性。
(二)更温情化的法官
哲学家维科依照历史进度将司法裁判分为三个阶段即神的裁判、常规裁判、人道的裁判。在这一裁判演化的过程之中,神性因素逐渐隐退,人性和情理因素则逐渐凸显。与缺乏自主性的、无情的、没有价值意涵的、没有反思性的以及无法察觉自己会犯错的人工智能相比[47],人类法官是有温度的,其作为社会生活的参与者,拥有和社会大众一致的共情能力,所致力于实现的也是一种同理心正义。在人工智能对司法裁判全面渗透的背景下,我们所担忧的并不是“机器开始像人类那样思考,而是人类开始丧失自身独特的思考能力,成为机器的附庸” “每个人和每个案例都是独一无二的。每一种都需要人类的判断力,以及人工智能系统无法提供的、至关重要而又非常自然的移情能力”[48]。尤其在面对价值冲突、伦理挑战、阶层对立等具有争议性和隐喻性的案件时,往往需要法官充分运用个体的良知、正义感和同情心展开境遇想象和情感互融,从而体现司法的温度,避免司法的温情正义被冷冰冰的机械正义所取代。
如在著名的柏林守墙士兵亨里奇射杀翻墙青年案中,针对辩护律师指出的其只是在执行命令,因而其是无罪的辩解,审理法官赛德尔指出,在这个世界上,除了法律命令之外,还有良知,当二者发生冲突时,一个心智健全的人应当主动承担良心义务,而不是机械地执行法律。最终亨里奇被判有罪。又如在宜兴冷冻胚胎案的二审判决中,法官从伦理、情感和特殊利益保护的角度指出,“‘失独’之痛,非常人所能体味。„„涉案胚胎由双方父母监管和处置,既合乎人伦,亦可适度减轻其丧子失女之痛楚”⑤,从而认定双方父母对胚胎的监管和处置权。可以看到,对于这些疑难、新型案件的处理,法官的良心无疑决定了最终裁决的正当性和可接受性,这些发掘法律背后所蕴含的良知和正义理念的能力是司法人工智能难以模拟和取代的。从社会生活中汲取经验和智慧,充分将个案置于社会生活背景中予以考量是人类法官获得民众信任和认可的基础性条件,真正动人的是鲜活的事实和暖暖的人情味,也正是对人类有温度的正义需求的积极回应,司法职能逐渐繁荣并被坚持下来[49]。在人工智能时代,我们更应当充分发挥人类法官裁判的独特价值,努力确证和维护为社会所共同希冀的伦理秩序、美好情感,充分关照人类自身的尊严和价值。
(三)更精英化的法官
随着人工智能技术的不断优化及其在司法领域应用的不断扩展,法官可以从大量的简单案件和重复、机械的事务性工作中脱离出来,专心处理少数疑难、复杂、新型案件。需要法官处理案件的数量减少意味着法官人数需求的下降,但这些少数疑难、复杂、新型案件对法官个体的审判素质提出了更高的要求,这也意味着少而将精成为今后法官群体的发展方向。
当前,司法改革对推进法官精英化具有积极意义。首先,员额制改革通过入额遴选以及提升待遇等方式,既保障了审案法官整体业务素养,也提升了法官的自我认同感。其次,随着员额制的开展,法官招录制度也进行了相应改革。通过招考进入法院的人员,往往需要从法官助理干起,经过一定年限的实践培养之后才可独立审判案件。此外,司法考试改革将接受过法学专业的本科或研究生教育作为报考条件,一定程度上通过事先过滤的方式优化了法官群体的专业素养。最后,法官责任制改革以及人工智能管理系统的引入,使司法活动更加公开化,法官管理制度更加科学化。法官不得不主动提升自身素养,更加谨慎、理性地展开司法活动[50]。这些改革方案推动了法官职业化、专业化建设,有效回应了人工智能社会对精英法官的需求。但是,这些改革方案对在人工智能全面融入司法审判背景下的复合型法官培养的重视程度还有所不足。
人工智能时代,精英化的法官除了拥有扎实的专业知识、丰富的审判实践经验、正直无私的个人品质之外,人工智能相关知识和技能的掌握也应当成为法官综合素质培育的重要方面。当前,由于法律群体对人工智能知识和技术的生疏,使得司法人工智能系统的建设往往通过外包的方式展开。在算法黑箱和技术壁垒的作用下,司法人工智能系统的公正性无法得到保障,且外行制作的司法人工智能时常无法切中司法的真实需求,影响了人工智能和司法审判深度融合的进程。积极培养既掌握法律专业知识也懂得人工智能技术的法官,一方面可以保障法官在司法裁判中的主导性地位,避免法官盲目信赖人工智能决策,提升法官运用人工智能法律系统辅助展开裁判的效率;另一方面,懂得人工智能技术的法官可以参与到人工智能法律系统的制作、修正等工作之中,也能对算法的公正性展开监督,及时发现人工智能算法所存在的问题,从而有效避免算法黑箱、算法霸权以及算法歧视等技术风险。
面对我国复合型人才,尤其是懂得人工智能技术的法律人才匮乏的现状,短期内我们可以通过加强法官的培训工作,提升法官对人工智能法律系统的认知、了解和操作能力以缓解这一困境。长远来看,通过改革现有法律人才培养模式,打造人工智能本科教育加法学知识研究生教育,或者设立人工智能、法律交叉学科并延长培养年限的教育模式是从根本上改变我国复合型法律人才匮乏困境,提升法官精英化水平的可行路径。当前,我国已经有一些高校探索开展人工智能法学的本科与研究生教育,随着人工智能的深度发展,需要有更多的高校将培养重心转移到此方面来,以为我国培育更多具有交叉学科背景的精英化法官提供充足的人才储备。
四、结语
面对人工智能时代对法官职业带来的挑战,我们既不能冷漠无视,也不必过度焦虑。分析司法人工智能的可能空间与内在限度,可以发现,虽然相较于人类法官,人工智能经验更加丰富、立场更加客观、运转更加高效,但其数据化的经验形式、孤立化的裁判立场以及无法兼顾高效和质优的特性决定了人工智能完全替代法官展开裁判仅仅是一种镜花水月的理想。但这并不意味着我们可以无视人工智能给法官职业所带来的变革性影响。面对正在到来的人工智能时代,法官在借助人工智能辅助提升司法裁判公正性的同时,还应当努力适应人工智能时代法官角色转变的现实需求,成为更加理性化、温情化和精英化的法官。
论文指导 >
SCI期刊推荐 >
论文常见问题 >
SCI常见问题 >