我的位置: 上观号 > 上海市法学会 > 文章详情

刘彬华 赵琛琛|人工智能辅助裁判系统主观性渗透风险及其规制路径

转自:上海市法学会 2026-02-06 09:41:07

我国智慧法院建设的目的在于以技术的客观性、规范性提升司法的公正性和效率性。然而,在司法人工智能领域,以算法为内核、司法大数据为依托的人工智能辅助裁判系统的客观性往往难以保障,存在被主观性渗透的风险,不同程度地放大个体偏见性、消减法官自主性、损害司法权威性,亟需规制。通过分析司法大数据挖掘的六个步骤可知,人工智能辅助裁判的主观性渗透主要萌芽于数据生成阶段,成熟并强化于数据处理阶段。人工智能辅助裁判主观性渗透的规制,需以公平正义为指导原则,基于透明和责任,并充分保障个人的诉讼权利,建立程序完善的“四面一体”规制规则。

引言
2017年4月,最高人民法院发布《最高人民法院关于加快建设智慧法院的意见》,明确提出需积极运用大数据与人工智能技术,为法院软实力建设提供智能化支撑。2019年年底,人民法院信息化建设3.0版圆满完成,智慧法院的整体框架初步形成。到2025年,人民法院将全面建成以知识为核心的信息化4.0版,推动智慧法院向智能化、一体化、协同化、泛在化与自主化的智慧司法服务方向迈进;同时充分发挥司法数据中台、智慧法院大脑的智慧驱动作用,破除“信息孤岛”与“数据壁垒”,助力智慧法院实现高质量发展。智慧法院建设的目的在于以技术的客观性、规范性提升司法的公正性和效率性。然而,在司法人工智能领域,以算法为内核、以司法大数据为依托的人工智能辅助裁判系统的客观性往往难以保障,存在着被主观性渗透的风险,并在一定程度上减损司法裁判的客观性及公正性。
一、动因:人工智能辅助裁判系统中主观性渗透风险的规制必要
在科学技术足够发达或治理能力足够预防相关风险前,人工智能辅助裁判系统的客观性与中立性都将受到一定程度的限制,往往存在主观性渗透的风险。然而,人工智能辅助裁判系统一旦出现了问题,将会产生一种自动化、体系化、机制化的具有普遍性的损害后果。更重要的是,人工智能辅助裁判常常以“科学”的名义表现出来,而受影响的相对人却不知道其实为什么,也无法对其提出疑问。这就很像柏拉图的“洞穴”隐喻,当人工智能辅助裁判变成一种被强加的、给定的“客观性”,产生了一种“以假为真”的反向替代品时,司法就会被异化为反向,因此,亟需保持高度警惕。

(一)
主观性渗透损害司法权威性

人工智能辅助裁判系统中的主观性渗透在一定程度上会导致司法裁判客观性的缺失。然而,司法裁判的权威性并不是因为判决结果更加合理,也不是因为判决过程更加高效,而是因为司法机关作为公权力机关,其所表现出来的法律性、客观性以及背后的国家强制力作为其保障。而人工智能辅助裁判系统中主观性渗透所导致的法律规则适用中产生的客观性缺失问题,在一定程度上对维护裁判结论的合法性和中立性都是非常不利的,更会对司法权威造成损害。

(二)
主观性渗透放大个体偏见性

“技术乌托邦”(techno-utopian)的基本信念是,算法系统相对于人来说更客观、更公平、更公正,因其本质就是代码、数据而没有人偏见包袱。但是,一系列的研究表明,把人工智能辅助裁判看作是完全客观的做法是不正确的,在看似中立的人工智能辅助裁判中,也会有人的主观渗透,而诸多因素可能导致主观性渗透。最值得注意的是,主观性也会通过科技的高效和廉价来固化或放大个人的偏见。不同类型的算法偏见会“复制”和“放大”已有的个人偏见,从而更严重地影响法官在司法判决中对各类主体平等权利的维护和保障。

(三)
主观性渗透消减法官自主性

司法裁判是一种判断性权利,其判断的本质在于法官的自主性。实际上,制约法官发挥自主性的因素,与其所处的信息环境存在关联,而信息环境的多元化,能够为法官自主性的落地提供助力。随着人工智能辅助裁判的出现,使法官面临的信息环境日趋单一化、封闭化,一定程度上限制了法官的自主性。面对这一现象,一些学者认为该决策算法可能会造成“回声室效应”(Echo Chamber)现象,法官所接收的均为与其在审理案件类似的信息,法官们的眼界日益狭窄,能够获得多样化信息的途径减少了。另有学者提出,“经过周密规划”的自动化系统,就如同那些看似不起眼的行为一般,已成为左右、塑造我们人生轨迹的关键要素,价值体系也在其列。若不深入探究,我们或许根本难以意识到自己对其的依赖程度有多深,甚至其造成的影响可能早已超出了人类当前的认知范畴。
二、探寻:人工智能辅助裁判系统中主观性渗透风险的具体表象
人工智能辅助裁判以算法为核心,以司法大数据为基础,数据与算法共同为司法人工智能提供了技术赋能。特别值得注意的是,在人工智能辅助裁判的落地应用过程中,数据更是其得以实现的关键支撑。所以,在大数据背景下,通过数据挖掘技术、并借助算法从海量司法数据中探寻隐藏其中的信息至关重要,该过程主要包含定义问题、数据理解、数据准备、数据建模、模型评估和模型部署六个步骤。在这六个环节里,前三个环节归为数据采集环节,核心围绕数据自身的相关事宜;后三个环节则归为数据处理环节,必须依托算法方可完成。但这六个环节从本质层面来看,都蕴含着主观性。

(一)
司法大数据采集阶段

在司法大数据的采集工作中,主张获取“全样本”,其本质上带有浓厚的主观色彩。众所周知,算法做出决策,本质上依赖“数据喂养”来运转,只有掌握海量、完整且真实的数据,才能保障算法决策的客观性与准确性,进而让人工智能的“智能程度”更高。司法活动是“定分止争”的复杂过程,会涉及人员、财物、时间、地点、主客观情况、行为模式、涉案工具等多种要素,单个案件往往就会产生大量“司法数据”。倘若要为特定类型或特定案由的案件搭建算法模型,就必须收集海量数据。而“全样本”的获取更是难度极高——要界定清楚特定类型或特定案由的“全样本”,应涵盖时间范围、空间范围、具体范畴,本身就是一大难题。以上海“206系统”的研发为例,研发团队分析了上海法院2012年至2016年间审结的591起命案,将命案划分为现场目击型、现场留痕型、认罪供述获印证型、拒不认罪型四类,并据此构建了用于“证据标准指引”的建模算法。上海研发的民事、行政案件智能辅助办案系统,先从467个民商事案由与61个行政案由中进行筛选,最终确定了6大类的8个核心案由。不过需要注意的是,即便该系统已完成5800余份电子卷宗的标注,标注节点数量也达到12万个,但仅在2016年,上海市“道路交通事故纠纷”这一个案由的收案数量就有51312件。与之情况相近的是71个常涉刑事案件罪名的“证据标准指引”,该指引并非随意制定,而是依托近三年全国范围内102个高频涉刑罪名的案件数据构建而成,不难发现,这些用于支撑指引制定的数据,其产生时间集中在近三至五年。这意味着,8个案由的电子卷宗标注数量跟1个案由且仅1年的收案量相比,就显得小巫见大巫了。从这个角度看,若欲开发一套人工智能辅助裁判系统,目前这些“样本”还需要限定在一定时间及范围内,而仅仅在时间和范围上稍微更改一下“样本”,其收集到的司法数据就会有很大的不同。单纯“数量”层面的变化,其实算不上核心议题。真正棘手的问题在于多维度变量的交织与影响权重的量化——无论是法律法规的修订、司法解释的更新、司法政策的调整,还是政治事件的辐射、社会环境的变迁,这些因素本身的动态变化已足够复杂,要精准测算它们各自对相关领域的影响程度,难度更是呈几何级上升。与此同时,“全样本”的构建也面临现实困境:要实现真正意义上覆盖所有场景、所有维度的“全样本”,在当前条件下几乎难以达成;即便退而求其次,选择限定时间段与特定范围来界定“全样本”,这种选取方式本身也会在很大程度上渗透主观判断,难以完全做到客观中立。

(二)
司法大数据处理阶段

一方面,司法大数据处理环节中,数据标注存在主观性。上海法院“206系统”的研发过程中,主要运用手工标注与自动化标注两类方法,手工标注的主观性显而易见,即便采用机械标注,最终仍需编程人员开展验证工作。同理,在诸如图像识别、手写体辨别、插图与签章验证、涂抹区块检测、内容插入识别等技术场景中,其准确率水平已能稳定维持在92%至98%之间。即便如此,人工介入进行审核校验与偏差修正仍是必要环节——毕竟机器识别的结果无法完全覆盖所有复杂场景,而这一系列人工操作环节,显然也带有不可避免的主观选择属性。另一方面,司法大数据处理环节中的数据阐释同样带有主观性,标定数据的质量,会对系统运行性能产生显著影响。但中文语义的多义性、模糊性、局部性等特点,使得不同的设计人员对相同或类似的文本知识与数据,可能会产生不同的解释,造成数据标注的阐释与理解存在较大个体差异。即便构建起多层次的数据标注体系,能有效降低标注过程中的语义模糊问题,还能在一定程度上增强标注结果的可解释性,但主观因素的干扰依然无法完全排除。实际情况显示,主观性与创造性在数据分析及算法建模过程中,都发挥着关键作用,正如有观点指出:“同一组数据处于不同的环境背景下,可能承载完全不同的含义;这些含义并非数据本身所具备,而是人们在特定场景中对数据进行分析后,为其赋予的意义”。这也正是“投入多少人工,就有多少智能”的原因所在。
三、思辨:人工智能辅助裁判系统中主观性渗透风险的原因分析
从数据生成阶段到数据处理阶段,人工智能辅助裁判设计人员的主观认识始终贯穿其中。换言之,在人工智能辅助裁判系统学习的过程中,数据采集和标注时经常会受到人的主观判断的影响,而这些主观判断中所包含的社会认知和设计者的认知也会被融入到模型训练当中。由此可见,人工智能辅助裁判的主观性渗透主要萌芽于数据生成阶段,成熟并强化于数据处理阶段。综合来看,人工智能辅助裁判的主观性渗透的根源主要可以归纳为以下两方面。

(一)
输入数据的主观性因素

在人工智能领域,各类学习算法的核心特征之一,是需要接入海量数据完成“训练学习”过程。因此,人工智能辅助裁判同样需导入大量司法数据,而其之所以存在主观性渗透问题,核心原因之一便是提供给它的训练数据(training data)或输入数据(input data)本身带有主观属性,这正是“输入有偏,输出必偏”的逻辑体现。人工智能辅助裁判的设计初衷,是帮助法官作出更客观、更公正的裁判,但实际应用中,它所依赖的司法数据未必完全客观,可能存在一定主观成分,这就使得最终的司法裁判结果有受到这类主观因素干扰的风险。一旦训练数据或输入数据本身带有偏见,即便所采用的学习算法具备“中立性”,也可能训练出与实际人口统计情况、理想道德标准严重不符的模型。具体而言,导致训练数据或输入数据存在主观性因素主要有四方面原因。
一是数据选取不当,具体表现为人工智能辅助裁判系统的设计人员,在对司法裁判中的各类数据进行权重考量时出现偏差。与之相关的是,设计人员可能会将数据粒度(granularity)设定得过粗或过细,进而引发潜在的偏见影响;二是数据存在不完整、不准确或滞后的问题,也就是司法大数据在技术层面的收集过程不够严谨、全面,或者已收集的司法大数据本身存在错误、缺失等情况;三是存在选择性偏见,即输入系统的数据集无法反映裁判层面的共识,这就可能导致裁判结论对部分群体产生不利影响;四是非刻意地延续并放大历史偏差,也就是反馈回路(feedback loop)的作用,使得历史偏差在人工智能辅助裁判系统的输出结果中被反复强化。

(二)
算法内在的主观性因素

除了输入数据与训练数据是人工智能辅助裁判主观性渗透的源头之外,算法本身同样会引发主观性渗透,这涵盖算法的设计、处理、解释与应用等多个环节。实际上,对于未涉足算法技术研究的群体而言,人工智能辅助裁判系统更像是一个“黑箱”,通过大量的司法数据,进行一系列复杂的算法处理,最后得出一个让人无法理解的裁判结论。法官、原告、被告等可能会受到算法结果的深刻影响,但他们却并不知道一系列与算法有关的技术。这是由于研发算法的机构和个人往往将其视为“商业秘密”或者“专有特权”,并不需要公开。在此背景下,一方面,非受过专门培训的人员很难对算法做出的决定提出有效的质疑;另一方面,承担着解释原因义务的司法机关,也可能利用这一点来规避相应的责任。如果某个判决结果不公正,则当该判决结果成为后续判决结果的基础时,对该判决结果的主观判定将变得更为复杂与困难。具体而言,导致算法自身存在主观性因素主要有四方面原因。
一是算法模型的设计不合理。在算法建模过程中,技术人员有意无意地将自己的主观认识带到了模型中;二是算法模型的监督缺失。算法模型运行具有标准化、流程化和复杂性等特点,而对运行过程自身缺乏有效的监督机制。也就是说,当一些因素在判决过程中被不当地考虑或者忽视时,通常情况下,算法模型并不能自动修正;三是算法模型的选择有误。算法模型往往是为特定司法裁判场景设计并运行的,可一旦将其应用到这些特定场景之外,原本适配的伦理、法律及技术标准便难以完全适用;四是算法模型的解释偏差。即便处于预期的运行场景中,法官或是更广泛范围内的自动系统,仍有可能对运算结果或系统功能产生偏差解读。这种误解在很大程度上体现为“信息不匹配”,也就是说,算法生成的信息与使用者实际需要的信息并不相符。
四、探索:人工智能辅助裁判系统中主观性渗透风险的规制路径
综合前文内容不难发现,人工智能辅助裁判的主观性渗透,核心来源是数据与算法两大维度,这两方面可进一步归为数据因素与人为因素。因此,对其主观性渗透的规制,需从数据和人为两个角度切入,以公平正义为核心指导原则,依托透明性与责任性,构建公平高效、程序完备的规则体系。

(一)
指导原则层面:公平正义

1.技术伦理:道德内化

公正是一种重要的社会价值。对于人工智能来说,公平同样是最重要的。为保证人工智能辅助裁判的公平,消除主观性渗透,可以从技术伦理的道德内化角度分析,考虑人的因素,即设计人员的影响。人工智能技术并不具备自主意识,它的发展进程是人类主观意志的直接体现。人工智能所引发的社会层面的偏见与歧视,本质上只是人类社会中既有偏见与歧视的投射与复刻,这意味着技术开发者需要采取切实有效的措施,避免技术出现异化。故而,有必要对设计人员的行为进行规范,推动其将道德准则内化为自身行为导向。“科学技术与伦理道德善恶并进论”提出,“科学技术的发展既能够推动伦理道德的进步,也可能造成道德水平的滑坡。”科技对人类社会发展有着极强的推动力,在推动社会向前迈进的过程中,它还会作用于人类道德演化的核心方向,进而催生出新的道德观念。同时,社会伦理又在一定程度上影响着科学技术发展的轨道,两者之间存在互动关系,要积极引导技术伦理,将其内化为算法的设计和应用流程。
因此,要加强技术人员的社会责任感,以防范人工智能辅助裁判系统的“功能异化”。法院应当采用相关的政策,促进技术的发展;技术人员应当对技术成果作出客观的描述和评价,如实、详尽地描述技术的优缺点,并对其所产生的科技成果承担责任。要进行技术理念的更新,必须对技术和道德之间的关系有一个明确、理性的理解,必须用良好的道德来指引技术的走向,并对技术理念进行客观的更新。要把道德伦理融入到技术创新和运用的整个过程中,注意对人工智能的价值顺序进行设置,并使其与主流价值观相一致。
2.价值伦理:正义导向

在研发人工智能辅助裁判系统的过程中,需将“正义”这一核心价值伦理嵌入算法,以保证算法决策能遵循公正性的价值导向,同时在一定程度上减少主观性的渗透。正如凯西?奥尼尔所指出的,算法本身不具备道德想象力,要确保算法发挥积极作用,就必须将更优价值融入其中,进而构建出契合人类道德规范的大数据模型。由此可见,将基础正义价值嵌入算法体系,核心存在两种实现路径。第一种路径,聚焦于人工智能辅助裁判系统的功能设计。通过清晰界定价值函数与对应权重,推动价值评判体系实现客观化、体系化转型。具体操作中,可根据案件的类型差异,结合各类价值的重要性层级,设定相匹配的权重占比——以此为基础,让司法人工智能逐步具备基础的价值选择与判断素养。沿着这一技术思路,匹兹堡大学学者托马斯·萨蒂提出了层次分析法与网络层次分析法。这类算法的核心优势在于,通过融合定量分析与定性分析的双重方法,能够为人工智能高效破解价值选择类难题提供切实支持。另一种路径则依托“建构主义价值判断论证预测模型”。这一模型的核心价值在于显著强化人工智能辅助裁判系统的价值判断效能。其运作逻辑围绕以下核心环节展开:首先,精准识别当前待审案例与过往生效先例之间,是否存在局部重叠或交叉的价值判断范畴;其次,结合当前案例的具体情境,权衡这些共享价值判断所占据的权重比例;在此基础上,进一步构建适配当前案例的价值选择论证框架。从实践验证来看,格拉布梅尔曾在商业秘密法这一特定法律领域,针对其研发的该类预测模型开展实证测试。测试结果表明,该模型在相关案件价值判断与论证方面的正确率,已成功突破75%,为模型的实际应用提供了有力的支撑。

(二)
行为约束层面:明确责任

人工智能辅助裁判系统是法官借助算法作出司法裁判,归根结底仍是人治,算法仅仅起到工具性的作用。但算法权力和责任的不对称性是应该被纠正的。因此,在人工智能辅助裁判系统中应当确立行为准则以消除算法的主观性因素,以此约束人工智能辅助裁判系统设计者与法官使用者的行为。
1.系统设计者

系统设计者需对其设计算法所引发的损害承担责任,当损害发生时,还应履行相应的保障义务。具体可分为三项核心责任与义务:一是数据全流程溯源义务。为确保系统可追溯性,设计者需完整留存数据从采集渠道、原始内容、处理环节到决策依据的全流程记录;同时针对算法训练生成的结果,需提供真实完备的说明文档,清晰标注算法本身存在的局限性与潜在风险点,避免信息模糊或隐瞒。二是聚焦技术原理的解释性义务。设计者需对算法的技术架构与运行原理进行清晰阐释,尤其要重点说明数据内容的筛选标准、数据特征的提取方式以及权重分配的核心逻辑——通过这一系列说明,确保算法设计中的关键环节(如数据选取、权重设定)具备可理解性,便于后续核查与监督。三是涉及恶意操纵的责任界定。若设计者存在故意设计缺陷算法,或因过失导致算法出现功能性问题的情形,需结合具体行为性质、造成的实际影响来划定责任边界;在情节必要时,设计者需为其设计的算法引发的合规风险或司法偏差,承担相应的法律责任或合规责任。从实操层面来看,可推动制定针对人工智能辅助裁判系统的专项指导原则与行为规范:一方面明确系统设计环节的透明度标准,另一方面细化设计者在数据记录、原理解释、责任承担等维度的具体履行要求,让义务与责任落地有章可循。
2.系统使用者

相较于系统设计者,法官作为人工智能辅助裁判系统的实际使用者,与该系统的关联更为紧密——法官的意志与裁判决定直接影响当事人的核心权益。作为算法使用者,法官借助该系统直接作用于当事人,由此引发权益侵害的可能性更高。故而,需为作为系统使用者的法官设定更为严格的义务,具体可分两类情形界定责任:一类是人工智能辅助裁判系统的核心定位,在于为法官的裁判工作提供数据调取、材料梳理等纯辅助性质的支持,并不具备独立裁判权限。当出现错判、误判情形时,责任界定需遵循清晰的权责逻辑:一方面,需以“谁审理、谁负责”为核心准则。法官作为案件审理与裁判决策的核心主体,对最终裁判结果负有首要责任,若存在枉法裁判情形,应承担主要责任。另一方面,系统开发与设计人员的责任需结合实际作用动态界定。具体而言,需依据司法人工智能系统所提供的数据、材料在辅助裁判过程中实际产生的影响权重,按照“浮动比例原则”对责任范围与程度进行差异化划分,既不忽视技术支持环节的潜在影响,也避免过度扩大开发设计人员的责任边界。另一类需明确的责任情形,是人工智能辅助裁判系统对简单案件行使自主决策权时,若发生错判、误判,该如何界定责任归属。从更贴合司法实践与当事人权益的角度来看,可从错判受害人的立场重新审视这一问题:首先,当事人选择将争议提交法院审理,本质上是基于对司法机关及整个司法制度的信任——这种信任指向的是法院这一法定裁判主体,而非背后的技术系统。更何况,无论裁判结果是由法官直接作出,还是由司法人工智能自主生成,最终都以法院名义对外送达,具备法院裁判文书的法定效力。因此,由法院承担相应责任,既符合现行诉讼机制中“裁判主体对结果负责”的核心架构,也更契合司法权行使的政治合法性逻辑。其次,从当事人维权成本来看,若要求当事人直接起诉算法设计人员或相关技术公司,不仅会额外增加其取证、举证的维权成本,还会因多数当事人缺乏技术认知,难以应对涉及算法原理的复杂争议,进而大幅提升败诉风险。相较之下,由法院先行承担责任,能最大程度降低当事人的维权门槛,保障其合法权益的实现。当然,这并不意味着算法设计方无需担责—法院在向当事人承担责任后,可依据内部追责机制,向算法设计者或技术公司追偿。这种“先担责再追偿”的模式,既能通过法院的主体责任保障当事人权益,又能借助后续追偿对司法人工智能的设计与开发环节形成有效约束,实现权责的平衡落地。

(三)
技术控制层面:公开透明

应对人工智能辅助裁判主观性渗透的外部性方案中,有一项是聚焦其内部规则的构建,这需要注重深入探究人工智能的内部运行机制,进而从数据与算法本身出发,对人工智能辅助裁判的主观性进行矫正。当前理论领域已提出公开算法代码、提升存在歧视倾向算法的自身透明度等思路,但这些思路尚未覆盖到数据维度。
1.数据透明性与操作可追溯性:区块链技术的应用

正如前文所提及,输入数据中的主观成分,在一定程度上加剧了人工智能辅助裁判的主观性渗透问题。因此,要对算法开展审查,就必须确保数据具备可查询性。数据的可查询性主要体现在三个方面:第一维度是聚焦数据源的可追溯性。机器学习所需训练数据的核心获取路径涵盖爬虫抓取、数据库下载、非电子数据数字化转换及授权获取等类型,这些路径可实现多渠道数据采集。对此,设计人员需完整留存数据来源信息,不仅要明确标注数据的具体获取方式(如爬虫的合规范围、授权文件编号等),还需记录数据获取的数量规模与时间节点,形成清晰的数据源台账,为后续数据合规核查、溯源验证提供明确依据。第二维度是强调数据内容的可核验性。针对已获取的原始数据,需建立双重保障机制:一方面,通过加密备份、异地存储等方式留存原始数据副本,既保障数据本身的真实性与客观性,也防止因数据篡改、丢失影响后续使用;另一方面,需详细记录并说明数据内容,包括数据的核心字段、信息范畴、关联案件类型等关键要素,确保任一原始数据的信息全貌可追溯,避免因内容模糊导致的核查障碍。第三维度是注重数据处理的可复盘性。训练数据采集完成后,需依次开展过滤(如剔除无效、异常或违规数据)、清洗(如修正数据偏差、补全缺失信息)、标注(如明确数据属性、关联裁判要素)及特征选择(如提取与裁判相关的关键数据维度)等环节。算法设计者需将每个处理环节的操作流程(如清洗工具、标注方法)、选择该处理方式的具体原因(如过滤异常数据的判断标准、特征权重的设定依据)完整归档记录,通过细化过程性信息,确保数据处理全环节可查询、可复盘,避免出现流程“黑箱”。显然,要实现信息透明,还需以档案的可访问性与不可篡改性为基础。一方面,在访问权限层面,算法开发过程中产生的数据(如算法代码),常被多层安全机制保护而无法被外界获取。因此需设立或指定专门机构,负责对相关记录进行审核,打破信息壁垒。另一方面,在防篡改层面,可借助区块链技术进行档案记录。该技术能按时间顺序,将数据获取、处理等过程的痕迹以链式结构组合成特定数据形态,并通过密码学手段确保其不可篡改与不可伪造。
2.算法透明性:模型审查流程

算法之所以常被冠以“黑箱”之名,关键在于其运行逻辑与内在原理对多数人而言存在理解壁垒。即便知晓算法的输入与输出结果,人们也难以穿透技术表层,洞悉中间决策过程。这种不透明性的产生,主要归结于四个核心维度:算法与数据的保密属性、技术层面的认知鸿沟、算法自身的复杂特性以及算法使用者的刻意隐匿。从保密属性来看,算法与数据往往承载着企业的核心竞争力:对科技公司或相关机构而言,算法模型的优化思路、数据的筛选标准直接关系到业务优势,基于商业保密与竞争防护的需求,多数主体会将其纳入商业秘密的保护范畴,主动规避细节公开,这从源头限制了算法的可感知性。在技术认知层面,计算机技术的专业性门槛构建了天然屏障:未经过系统专业培训的普通群体,既缺乏理解数据处理底层逻辑的知识储备,也难以掌握编程实现的技术路径。这使得非计算机领域的人士对算法普遍存在显著认知盲区,即便接触到算法相关信息,也难以形成有效理解。而算法自身的复杂特性进一步加剧了这一问题:随着算法规模的持续扩张(如深度学习模型的多层级结构)、逻辑的动态迭代,其内部决策链条愈发繁杂。即便在计算机专业领域,部分从业者也需耗费大量精力才能梳理清楚局部逻辑,未必能全面掌握算法的完整运行原理,普通大众的理解难度更是可想而知。此外,算法使用者的刻意隐匿行为也不容忽视——部分主体为规避监督、维持操作灵活性,会有意模糊算法的关键环节,进一步放大了算法的“黑箱”效应。因此,需从以下两方面提升算法透明度,以减少主观性影响:一是设立专门审查机构。随着人工智能在各领域现实应用场景的深化,针对算法潜在风险的规制需求日益凸显——构建独立的算法审查专门机构,将涉及公共利益的算法纳入重点监管审查范畴,已成为亟待推进的制度性回应。这一机构的核心职能之一,便是对司法人工智能算法实施全生命周期审查,具体可通过分阶段措施构建完整审查框架:一方面,在司法人工智能算法的构建阶段,审查机构可提前介入并提出明确要求:督促算法开发者在算法架构设计中预设审计追溯节点,完整记录算法决策的核心依据、逻辑链条与运行流程,确保审查人员后续开展审查时,能依托清晰的追溯线索穿透技术层面,精准核查算法设计的合规性与合理性。另一方面,当人工智能辅助裁判系统正式投入司法实践后,审查机构需进一步完善审查机制:不再局限于单一审查模式,而是构建“随机抽检+依申请启动”的动态审查体系—通过随机抽检实现常态化监管,及时发现系统运行中的隐性问题;通过依申请审查响应相关主体(如案件当事人、司法监督部门)的需求,确保审查覆盖关键争议场景,最终形成“事前规范+事后监督”的闭环审查机制。二是坚守可解释性优先原则。机器学习领域常提及“维度的诅咒”(curse of dimensionality)。机器学习与算法的内在运行机制呈现高度复杂性,无论是模型构建的逻辑链条,还是数据运算的底层规则,都远超普通认知范畴,这使得多数主体(包括案件当事人、普通公众,甚至部分非技术领域司法人员)难以对其形成全面、清晰的认知。基于这一现实困境,需将“可解释性”作为系统设计的核心准则,明确设计人员的首要责任:一方面,要通过技术优化让案件当事人清晰知晓人工智能辅助裁判系统在司法流程中的存在与作用,避免因信息不对称影响当事人诉讼权利;另一方面,需以通俗化、可视化的方式向公众说明系统决策的依据——不仅要呈现结果,更要拆解决策背后的关键数据、逻辑规则与权重考量,让公众能理解司法人工智能作出判断的合理性。与此同时,法院也需承担相应的阐释义务:针对人工智能辅助裁判的全流程,既要向当事人、公众阐释系统在案件审理中的具体应用细节(如数据如何支撑事实认定、算法如何辅助法律适用),也要说明裁判结果的推导过程,还要解读该系统应用对提升司法效率、保障裁判一致性的实际意义,通过多维度阐释帮助公众建立对司法人工智能的理性认知,消解因技术陌生感产生的信任顾虑。

(四)
权利保障层面:尊重个人

应对人工智能辅助裁判主观性渗透的另一项外部性方案,是聚焦算法主观性因素带来的外部行为及后果。这要求通过分析该因素引发的实际危害,来治理算法主观性问题。行为准则依旧是约束法官这一使用者的关键方式,而人工智能技术的发展需遵循个人自主与个人优先原则,因此在运用人工智能辅助裁判时,需充分保障当事人的自主选择权、异议权、获得解释权与救济权。
1.自主选择与程序救济

一方面,即便针对简单案件,任意一方当事人都有权决定是否采用人工智能进行案件审理与裁判。若双方当事人均明确反对,法院需将案件的审理与判决工作交由法官负责。另一方面,经人工智能辅助裁判作出判决后,当事人有权向上一级法院提起上诉,此时案件需按二审或再审程序审理,并交由人类法官办理。这样一来,依托上诉机制,法官作为“守门人”,在与算法相关的裁判关系中仍能保持核心主导地位,进而规避被算法控制的风险。
2.技术支持与获得解释

一方面,当事人同样有权获得技术支持,尤其是在刑事案件或行政案件的裁判过程中,以此防止公权力主体等凭借技术优势占据不合理的诉讼地位。具体可参考现行法律援助制度:若当事人处于技术弱势地位或经济困难状况,可申请获取专家在资料、技术等方面的公益性支持,以保障双方当事人具备相对均等的诉讼能力。另一方面,鉴于“算法霸权”的存在,人工智能辅助裁判系统的主观性渗透会导致裁判结果产生偏见,且容易损害当事人合法权益,因此可赋予当事人算法解释请求权,以此平衡并对抗“算法霸权”,恢复原本的平等诉讼地位。算法解释请求权的行使主体是当事人,义务主体是法官,核心内容是要求法官为当事人实施特定行为,具体为解释或说明人工智能辅助裁判的目的、意义、预期影响等具有价值的信息。

往期精彩回顾

张献之 贾妍彦|司法数据的开放及产权实现研究
李超|枫桥经验多元解纷中的“政法数据共享”——一个整体性治理理论的分析框架
熊婷 韩富饶|企业数据商业秘密保护的法律认定研究
赵苡含|论数据资源持有权的法律配置
王韬 狄如馨|数据可携权的法律审视与适应性构建思考
石鑫|数据产权结构性分置的体系构造

上海市法学会官网

http://www.sls.org.cn