我的位置: 上观号 > 上海市法学会 > 文章详情

汪青松|大模型运行损害的归因范式与责任机制

转自:上海市法学会 2025-08-06 09:21:18

本刊唯一投稿渠道:dffxtg@126.com

大模型具有自主演化性、数据依赖性与算法黑箱性三大核心技术特征,由此引发输出内容安全性隐忧、数据使用正当性质疑、因果关系认定难题等风险挑战。大模型运行引发的损害不仅样态繁多,且具有独特的法律特征,传统归责体系面临前所未有的挑战,主要法域相关立法变革也存在缺陷。为此,需要借助风险分配与矫正正义的耦合来重构大模型运行损害责任分担的理论基础,创建兼容技术、控制和收益的三维归因模型。在此基础上构建多元主体的分层义务,遵循相应归责原则,利用原因力分析来合理划分比例责任,并结合动态风险协议制度来形成适应大模型技术特征与发展需求的动态、灵活且公正的责任分担机制。

人工智能技术的革命性突破正在重塑社会生产与生活方式。作为人工智能领域的重要分支,大模型(Large Models)依托千亿级参数规模与深度学习架构,以规模和架构驱动性能,展现出强大的多模态数据处理、新内容创建与自主演化能力,逐步渗透至医疗、教育、金融等关键领域,成为新质生产力的典型代表。有研究者预言由大模型支持的“生成式治理”将可能开启一个更加智能、高效和人性化的公共治理新时代。然而,技术的“双刃剑”效应总是如影随形,人工智能的更新迭代不断推动算法权力深度嵌入社会运行,大模型运行的技术特征正不断塑造更加复杂的法律关系,带来更加棘手的潜在风险与损害。从ChatGPT引发的数据隐私争议,到Stable Diffusion模型面临的版权诉讼,这些不断上演的损害责任纠纷表明大模型在相当长的时间内可能仍然是法律和道德上的雷区。这些纠纷暴露出大模型开发、训练、部署、使用等多环节的技术风险与多主体间的责任缠结,对传统法律所持的“行为—结果”的线性归责逻辑形成严峻挑战,亟需法学理论对技术风险与责任分担作出系统性回应。这一问题已经得到不少关注,但既有研究大多聚焦单一法律主体的义务边界,沿着过错责任路径找寻出口,或者采用产品责任框架进行类比推演,而缺乏对大模型技术生态与法律关系交互作用的系统性解构,难以提出切实有效的解决之策。因此,如何通过法律框架实现技术可控性,构建兼顾技术创新与权利救济的责任分担体系,依然是法学领域亟待破解的时代命题,也是实现数字文明可持续发展的制度基石。
一、大模型运行的技术特征与损害样态
人工智能可能从根本上改变迄今为止由社会传统和人类价值加以调控的行为,当前的社会不仅仅是旧社会的现代版本,它实际上创造了一个新的社会。特别是大模型的崛起正在重构数字社会的生产方式、权利(力)结构与法律关系。大模型运行具有自身的技术特征,随着大模型技术的快速发展和广泛应用,其潜在的风险和损害也日益显现,诸如数据来源正当性、数据质量管理、公开数据不当抓取利用、个人数据权利保护缺失、违法偏见和歧视等问题,都可能引发相应的损害。

(一)
大模型运行的技术特征及其潜在风险

生成式人工智能大模型具备自主演化性技术特征,其通过不断吸收新信息并优化自身性能,展现出强大的创新能力。这种特征使得大模型在生成内容时具有更高的泛化能力,但也伴随着输出内容超出预设范围的风险。尽管在训练过程中加入了强化学习机制以减少不良内容,但大模型仍可能产生不准确或有害的输出,给其应用带来潜在安全隐患。
1.自主演化性:输出内容安全性隐忧

生成式人工智能大模型与传统人工智能的显著区别是创新能力,由此引发了知识生产方式的深刻变革,开启了一个“无学科”的知识创生时代。大模型在初始训练阶段积累大量知识,并在后续使用中不断吸收新信息并优化自身性能,以此彰显出自主演化性的技术特征。例如,以ChatGPT为代表的生成式人工智能大模型通过大规模无监督学习,能够理解和生成自然语言文本,并逐渐扩展到图像、音频等多模态数据的处理。
这种无监督学习模式赋予了大模型更强的泛化能力和适应性,但也带来了新的挑战。由于大模型在实际应用中会不断学习和调整,其输出内容可能会超出开发者设定的范围或意图,增加了控制模型输出质量的难度。有研究表明,尽管大模型越来越多地被用于增强法律实践、教育和研究,但其革命性潜力受到与法律事实不一致的“幻觉”文本输出的威胁,大模型至少有58%的时间会产生幻觉,难以预测自己的幻觉,并且经常不加批判地接受用户不正确的法律假设。由大模型提供支持的聊天机器人会产生粗鲁、种族主义、性别歧视和彻头彻尾的错误回答。因此,大模型的自主演化性要求开发者和使用者具备更高的监控和管理能力,以确保模型在长期运行过程中保持良好的性能和安全性。为此,OpenAI在其GPT系列模型中引入了“人类反馈强化学习”机制,通过人工审核和反馈来调整模型的行为,以减少有害内容的生成,但实际效果较为有限。
2.数据依赖性:数据使用正当性风险

大模型的另一个重要技术特征是其对数据的高度依赖性,训练数据的规模和质量直接决定了模型的性能表现。为了训练出高质量的模型,通常需要海量的数据支持。某些先进的语言模型可能需要数十亿甚至上百亿条文本记录作为训练素材。然而,数据获取和使用过程中的伦理性和合法性问题也成为一大隐忧。大模型所依赖的海量数据集可能包含固有的偏见、不准确和过时的信息。这些偏差可以表现在输出中,使有害的刻板印象永久固化或因训练数据不完善而产生扭曲结果。在现行法律制度下,人工智能大模型训练数据可能会存在训练数据侵权风险、训练数据偏差风险和训练数据泄露风险等。一个典型的案例是美国的Andersen诉Stability AI案,原告Andersen指控Stability AI等公司通过人工智能图片生成程序未经授权地使用艺术家的作品作为训练数据,并按照用户指令生成与之相似的人工智能图片,侵犯了著作权等多项财产性权利。虽然美国加利福尼亚州北区地方法院根据“同一性”要求,以清晰性和具体性不足为由驳回了原告的大部分诉讼请求,但该案折射出大模型开发和训练中的数据获取和使用的正当性问题不容忽视。
大模型在运行使用中也同样存在数据不当利用的风险。虽然开发这些工具的公司已经努力阻止它们逐字复制其训练数据集中未经更改的段落,但这些工具仍然可以被有意提示这样做。退而言之,即使这些工具的用户没有故意提示该工具直接大量复制受版权保护的作品,基于其自主演化性,它仍然可能会自作主张地这样做。这些情况都可能引发争端。例如,2023年12月,纽约时报公司起诉OpenAI和Microsoft,声称它们的ChatGPT等大型语言模型是通过复制和使用《纽约时报》数百万篇受版权保护的新闻文章、深入调查、观点文章、评论、写作指南等构建的。
3.算法黑箱性:因果关系认定难题

大模型的第三个关键的技术特征是算法黑箱性,深度学习模型的算法会不断调整对输入信息的加权方式,以提高对意向输出内容预判的准确性,所以很难确定算法是如何以及为何得出特定结果的。以大型语言模型为例,尽管能够生成看似合理且连贯的文本,但要追溯其具体生成过程中的每一个算法节点几乎是不可能的。算法黑箱性源于“深度神经网络”的复杂结构。生成式大模型通常包含数百万甚至数十亿个参数,这些参数通过复杂的非线性变换相互作用,形成了一个高度复杂的计算网络。尽管科学家们已经开发了一些工具和技术来试图揭开这个“黑箱”的面纱,但目前仍无法做到全面透彻地理解算法机理。
算法机理的不可解释性不仅阻碍了对模型生成内容的因果关系认定,也为模型的安全性和可靠性评估带来了巨大挑战。由于无法确切知道模型在生成某一特定输出时所依据的具体规则和逻辑,人们很难对其生成内容的真实性和准确性作出判断。特别是在涉及敏感领域(如医疗诊断、金融决策等)时,这种不确定性可能会带来严重的后果。以医疗领域为例,由于大模型的算法黑箱性,想要探究其训练数据或模型所导致歧视的潜在有害影响非常困难,特别是想减轻系统中边缘化或代表性不足群体的潜在风险极富挑战,因为模型本身可能会反映和加剧医疗活动中显性和隐性的人为偏见,但无法识别或加以缓解。例如,医疗领域的某些深度学习模型在处理医学影像时可能存在误诊风险,但由于其内部机制的不可解释性,往往难以找到根本原因来加以改进。

(二)
大模型运行损害的主要形态

鉴于大模型运行损害的具体表现多种多样,难于详细尽述,本部分仅从较为常见和典型的人格权益侵害、知识产权侵权以及公共利益损害三个方面对大模型运行损害的主要形态进行分析。
1.人格权益损害:深度伪造侵害肖像权与名誉权

深度伪造(Deepfake)是利用机器学习技术使用人的面部、声音或肖像来生成高度逼真的虚假图像、音频或视频。这种技术在娱乐领域有一定的应用前景,但也可能被滥用为侵害他人人格权的工具。在深度伪造中,未经许可使用他人肖像的行为构成明显的侵害肖像权的行为。此外,深度伪造技术还可能损及受害者的名誉权。尤其是当这些技术被用于制作和传播不实信息时,受害者往往会遭受难以挽回的名誉损失。某些恶意用户可能会利用深度伪造技术制作虚假新闻或诽谤性内容,将其上传至社交媒体平台,造成广泛传播,以此迅速破坏某个人的名誉与信誉。即使事后删除相关内容,负面影响也无法完全消除。例如,在被称为“首尔大学版N号房”事件中,人工智能生成的虚假色情内容严重侵害了受害者的肖像权和名誉权。国内也发生过一些利用人工智能声音合成技术伪造名人声音的事件。
2.知识产权损害:风格模仿构成实质性相似

在知识产权法领域,“实质性相似”是判断是否构成侵权的重要标准之一。如果两件作品在表现形式上存在显著的相似性,且这种相似性足以使普通观众误认为两者之间存在关联,则可以认定为实质性相似。利用生成式大模型,越来越多的艺术作品和创意内容可以通过人工智能自动生成,由于其生成的内容往往是基于大量已有数据的学习结果,因此很难避免与某些现有作品产生相似之处。尤其是在风格模仿方面,人工智能生成的作品可能会呈现出某些艺术家的独特风格,从而引发版权纠纷。另外,合理使用也是处理人工智能创作版权争议的一个关键点。各国的版权立法都对合理使用作出了尽可能细致的规定,但是在实际的纠纷处理中,确定某一行为是否属于合理使用往往需要综合考虑许多因素,如使用的目的、使用的比例、对原作市场的影响等。尽管生成式大模型的目的是创造新的内容而非直接复制现有作品,但在某些情况下,仍可能被视为超出合理使用的范畴。这些都折射出传统的知识产权法与生成式人工智能所产生的独特复杂法律问题之间的不匹配。
3.公共利益损害:生成虚假信息扰乱公共秩序

大模型的不当利用会对公共利益产生广泛的负面影响。一是导致歧视效应。由于训练数据的不准确或不完整难以避免,大模型可能会形成一种算法偏见,并在生成内容或作出决策时表现出来,产生广泛的歧视效应。二是加剧数字鸿沟。大模型也可能因可及性差异导致业已存在的数字鸿沟进一步扩大,使一些弱势群体无法充分享受到大模型带来的便利和机会,影响社会的均衡发展。三是增强破坏效果。大模型能够生成似是而非的虚假内容,如果被恶意利用,就可能导致严重的后果,尤其在扰乱公共秩序方面具有极大的破坏力。特别是在突发事件发生时,利用大模型生成的谣言会迅速蔓延、蛊惑人心,加剧人们的恐慌情绪,增加社会的不稳定。大模型可能被恶意攻击者利用,生成具有攻击性的代码、钓鱼邮件或进行自动化的网络攻击,威胁网络安全和信息安全。四是引发诚信危机。特别是在学术领域,科研诚信是维护科学共同体信任和推动学术创新发展的基础。近年来出现了多起利用人工智能生成虚假学术成果的案例,给学术界带来了严峻挑战。这些虚假学术成果不仅有悖学术基本伦理,还可能误导其他研究人员继续沿着错误的方向进行探索,浪费宝贵的科研资源。
二、大模型运行损害的法律特征
大模型的运行呈现出多层结构,其中最为核心的是开发层、部署层和使用层,每一层都涉及不同的参与者。大模型运行的自主演化性、数据依赖性与算法黑箱性等技术特征及其所蕴含的潜在风险在参与者之间形成了复杂的法律关系。在这种情境下,大模型运行损害也在行为主体、主观过错、损害结果以及因果关系方面具有自身独特的法律特征,准确把握这些特征是构建妥当的责任机制的基础。

(一)
行为主体的多元性

行为主体的多元性一方面源于权利义务链条的传递性。大模型的训练通常依赖于大量的数据集,在数据采集、处理和使用的各个环节中,所形成的数据集往往包含个人信息、敏感信息等,涉及多个主体的权利和义务,并且形成一种链式传递。随着诸如欧盟《通用数据保护条例》和中国《网络安全法》等数据保护法律法规的不断完善,企业必须更加谨慎地处理数据权利流转问题,确保符合相关要求。特别是在跨境数据流动的情况下,不同国家和地区对于数据保护的规定差异较大,增加了合规管理和法律适用的复杂性。一旦大模型运行造成损害,确定行为主体也变得非常困难。
另一方面,在大模型生态系统中,开发者、部署者与使用者的角色常常出现重叠,也进一步加剧了主体身份的复杂性。通用人工智能服务提供者不仅自身提供大模型应用服务,也向下游平台企业提供预训练基础模型,供其研发出适用于不同场景的专业模型。特别是开源模型的自由度较高,允许第三方对其进行修改并商业化,任何有能力的开发者都可以对基础模型进行改进,由此导致行为主体的不确定性和多重性。专业开发者通过应用程序接口对大模型进行二次开发,他们既作为模型的部署者与使用者,又作为新的服务开发与提供者,当出现问题或引发损害时,很难确定是基础模型本身的设计缺陷,还是后续微调过程中产生的新问题。另外,普通用户在使用大模型时,通过“指令工程”可以实质上影响输出结果,这使得他们在某种程度上也扮演了“共创作者”的角色。这种情况下,原始开发者、二次开发者、部署者以及终端用户之间的义务与责任如何划分成为一个亟待解决的法律难题。退一步说,即使能够确认侵权事实,追责过程也异常复杂,尤其是当侵权行为跨越多个司法管辖区时,协调各方力量进行联合执法难度较大。

(二)
主观过错的模糊性

根据传统侵权法原理,只有在行为人具有故意或重大过失的情况下,才需要承担相应的法律责任。然而,在大模型环境下,由于技术本身的复杂性和不可预测性,这种标准显然难以有效运用。在大模型的开发过程中,基础模型开发者通常保留对算法架构的控制权,而部署者则主要负责应用层面的参数调整和优化。例如,Google向第三方提供PaLM模型应用程序接口的同时,限制了底层算法的修改权限。这种分工虽然有助于提高效率,但也带来了主观过错判断上的挑战。一方面,基础模型开发者需要对其提供的算法的安全性和可靠性负责,但其能否预见到特定损害场景是一个颇具争议的问题。特别是对于开源模型而言,因其开放性和灵活性,开发者很难完全预见和控制模型的实际应用场景。另一方面,部署者在实际应用过程中可能会遇到各种特定场景下的需求,他们会对基础模型作出适当的调整。在这种情况下,如何判断是因哪方失误而导致整体系统的风险增加和造成损害,就会变得非常困难。
主观过错的模糊性也源于大模型使用情境的复杂性。例如,某些开源模型可能被用作网络攻击工具,给社会带来巨大威胁;某些损害也可能是由恶意使用叠加技术风险所导致。因此,如何防止大模型被滥用,并在损害发生时确定用户和模型开发者各自的主观过错和责任成为一个难题。一方面,如果用户故意利用模型生成有害内容,是否应承担全部责任?另一方面,如果模型开发者没有对其产品进行更严格的审查以有效防止被恶意使用,是否构成重大过失?

(三)
损害结果的扩散性

大模型具备强大的自动生成能力,能够在短时间内生成大量内容和辐射广泛受众。一旦发生侵权行为,其损害后果往往会在短时间内迅速扩散,造成广泛的负面影响。例如,“智能投顾”生成的虚假股市信息可能导致金融市场剧烈波动,进而影响到众多投资者的利益,这种扩散效应使得单一侵权行为的危害性大大增加。另外,大模型在部署和运行中往往会经历持续的学习和迭代过程,性能和功能会随着时间推移发生变化,这也会对损害的扩散形成助推效应,并引发追责难题。例如,在自动驾驶系统空中下载技术(OTA)升级后,如果新版本算法存在未知的缺陷并引发更加严重的事故,那么责任如何承担就不那么明确。Tesla诉Kim Banner案就是一个典型的例证,表明了在技术不断进步的过程中界定各方责任的复杂性。

(四)
因果关系的间接性

传统的侵权责任制度主要针对个别侵权行为,缺乏应对大规模、系统性侵权的有效机制,因而在处理大模型侵权案件时显得力不从心。个别侵权损害通常具有清晰的线性因果链条,即行为与损害之间存在直接且可预见的联系。但在大模型介入的情境中,由于模型自身的复杂性和不确定性,这种因果关系变得更加间接和难以追踪。在大模型的应用中,用户通过提示词与模型交互,以生成所需的内容。然而,这种互动往往呈现出复杂的非线性关系。例如,当用户输入“写一篇批判某某行为的文章”时,模型可能会基于其训练数据中的模式生成一篇包含对某人进行诽谤的文章。这种情况下,用户意图与最终输出之间的因果关系变得模糊且难以界定。从技术的角度来说,大模型运行损害可能是由数据缺陷、算法偏差、使用场景、人为因素等叠加导致。从法律的角度而言,大模型的运行损害呈现出“多因一果”的复杂性。面对这种间接化、复杂化的因果关系,现行法律体系在证明责任、归因分析、责任认定和法律适用等方面面临诸多挑战。
三、大模型运行的相关立法及其归责缺陷
随着人工智能技术尤其是大模型技术的迅猛发展,其应用范围日益广泛,从自然语言处理到图像识别,再到自动驾驶等领域,无不展现出巨大的潜力。然而,与之相伴随的是大模型运行引发的风险与损害日益复杂化,传统归责体系面临前所未有的挑战。为此,许多法域积极推动针对性的立法变革,力图构建适应技术特性的归责框架。但与此同时,不同立法之间可能存在的重叠与矛盾增加了法律适用的难度,各个法域立法逻辑的差异与制度设计的局限,也导致跨法域合规冲突与本土化治理困境并存。

(一)
大模型运行风险应对的立法模式

中国、欧盟和美国在大模型运行风险应对上采取了不同的立法模式。中国通过实施“预防为主”的融合立法模式,强调从源头控制风险;欧盟则通过采取风险分级与权利保障并重的路径,确保技术发展与基本权利的平衡;美国则依赖软法与判例法的互动,注重风险效益平衡,在技术创新与社会成本之间寻求妥协。
1.中国:“预防为主”的融合立法模式

目前中国关于大模型运行损害归责尚无专门立法,但为了促进生成式人工智能健康发展和规范应用,依据《网络安全法》《数据安全法》《个人信息保护法》等法律而制定的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)于2023年8月15日实施。该《暂行办法》将生成式人工智能相关法律规范融入其中,核心是“预防为主”,要求提供者依法开展训练数据处理活动、使用合法来源的数据等,以求从源头降低因数据问题导致的损害风险。《暂行办法》第3条确立了“发展和安全并重”原则,第4条将技术风险内化为提供和使用生成式人工智能服务者的社会责任,第9条规定提供者应当依法承担网络信息内容生产者责任,并在“监督检查与法律责任”一章中通过引致相关法律的责任规则强化结果控制。具体实施上,通过分类分级监管、算法备案和全流程合规审查(如数据来源和基础模型合法性要求),以确保风险得到有效控制。
2.欧盟:风险分级下的权利保障模式

欧盟在应对大模型运行损害时,采取基于权利保障的制度路径。除了影响比较广泛的《通用数据保护条例》之外,2024年8月1日正式生效的《人工智能法》(AIAct)也是这一理念的具体体现,强调技术发展不得逾越基本权利边界。技术治理逻辑是以权利保障为核心,通过风险分级(禁止/高风险/有限风险)与CE认证制度构建预防性规制体系,在明确风险等级的基础上,根据市场发展需求制定相应的监督义务类型和内容,力求在保障科技安全的同时,为人工智能产业发展提供最大化的空间。制度设计上,《人工智能法》承继了《通用数据保护条例》中的“数据控制者”义务,要求高风险系统应具备“人为监督”功能,对特殊类别的个人数据加以特别处理,确保技术可控性;对高风险系统采用“提供者无过错责任”。
3.美国:软法与判例法互动的混合模式

美国在应对大模型运行损害时,采用实用主义导向的风险效益平衡模式,通过软法与判例法的配合与互动,试图在技术创新与社会成本之间寻求最佳平衡。制度设计上,2022年美国众议院和参议院发布《美国数据隐私和保护法》(American Data Privacy and Protection Act)草案,要求大型数据持有者在处理个人数据时应当对损害风险进行算法影响评估。鉴于对该法案达成共识的难度较大,2024年美国又公布了《美国隐私权法》(The American Privacy Rights Act)的立法草案,明确国家层面的数据隐私权和保护措施,通过强有力的执行机制来追究违法者的责任。2022年10月,美国白宫发布了《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right),提出人工智能技术应用的五项原则和相关技术指南,但避免设定刚性责任标准,以求在利用人工智能推动进步与保护人类之间取得平衡。司法实践上则依赖1996年《通信规范法》第230条关于网络供应商对他人上传至平台的内容不承担责任的平台责任豁免规定,形成可供遵循的判例。

(二)
相关立法归责体系的主要缺陷

目前大模型相关立法存在诸多缺陷,其中最突出的就是责任主体界定模糊。尽管各法域尝试通过分类分级的方式进行监管,但对于高风险系统中的责任主体,尤其是开源贡献者与开发者、平台运营方之间的界定仍不清晰,这导致实际应用中的责任认定和执行难度加大。
1.责任主体界定模糊

在各法域所推出的相关立法中,一个共同的问题是责任主体的模糊化。例如,欧盟《人工智能法》试图通过分类分级的方式对不同风险等级的人工智能系统进行监管,但对于高风险系统中的责任主体并未给出清晰界定。该法第28条仅约束商业化提供者,忽视非营利性开源贡献者,那么在涉及开源软件或第三方插件的情况下,开发者、平台运营方以及最终用户之间的责任边界就变得模糊不清。美国判例法则在“技术中立原则”与“实质性控制标准”之间摇摆,从而也导致个案中责任主体认定与责任界分争议颇多。责任主体界定的模糊性不仅增加了司法实践中的难度,也可能导致各方相互推诿,从而削弱法律的有效执行。我国的《暂行办法》虽然明确了服务提供者需对内容的真实性和合法性负责,但未确立开发者、部署者与使用者的基本义务与责任梯度,未区分基础模型开发者与微调者的责任界分,因而难以系统回应技术特征的独特风险以及法律主体间的动态博弈。另外,该《暂行办法》效力层级过低,难以在个案中作为责任判定的法律依据。
2.因果关系认定困境

因果关系认定是相关立法在归责方面面临的又一个关键难题。相关立法尽管大多规定了服务提供者应确保内容的安全性与合法性,但当出现侵权行为时,要证明是用户的提示词还是大模型自身缺陷导致特定损害结果的发生并非易事。例如,如果某用户使用模型生成一篇关于某公司的负面报道,而该报道包含不实信息,那么在这种情况下,如何认定因果关系以及应该由谁来承担责任并非一目了然。在实际应用中,特别是针对那些处于灰色地带的行为,如轻微误导指令生成的内容所致损害,很难准确判断其背后是否存在故意或过失,也很难确定误导与损害之间的因果关系。总体上看,现有相关立法都侧重于提高透明度和公平性,但在处理具体案例时,仍然缺乏有效的法律工具来确定因果联系。
3.责任实现保障不足

诸如大模型之类的新技术,损害责任在某种意义上也属于一种发展成本,其应对既依赖于通过技术创新来不断降低损害风险,也依赖于妥当的责任分担机制。就现有相关立法而言,尚未能处理好技术创新与利益保护之间的平衡关系,高昂的合规成本反而可能抑制企业通过技术创新提升自身责任的能力。以欧盟《人工智能法》为例,有研究者认为,人工智能立法不宜采取分类分级式框架,因为容易产生高昂的错误划分成本,亦难以回应超越单纯风险治理的立法目标。用信息内容管理来定位人工智能,相当于将新质生产力纳入上层建筑管理,难免产生各种错配现象。个人信息保护的风险规制对象不是物理损害,而是抽象权利。生成式人工智能训练语料的个人信息保护应当秉持鼓励和支持创新的基本立场。从实践来看,保护目标的实现也面临诸多障碍,比如,大模型的开发者普遍通过用户协议中的免责声明来转移责任。与此同时,现行立法虽然强调权利保护,但并未建立强制性的风险补偿金或社会化的风险分担机制。这意味着一旦发生侵权事件,受害者获得赔偿的机会和程度依然有限。
另外,大多立法缺乏对中小企业的差异化规制,所带来的额外监管压力可能会使一些企业更加谨慎地对待新技术的研发和部署。这样的规定虽然有助于提升整体安全性,却也在一定程度上抑制了创新活力。企业在追求商业利益的同时,不得不投入大量资源用于合规审查,这对于中小企业来说无疑是一笔沉重的负担。特别是对于那些处于起步阶段的初创公司而言,高昂的合规成本(如数据清洗与偏见检测费用)可能使其失去创新动力,进而影响承担责任的能力,也会妨碍整个行业的健康发展。
四、大模型运行损害的归因范式重构
传统的归责模式主要基于“行为—损害”的线性逻辑,秉持一种“全有或全无”的因果关系判断理念,但在面对复杂的大模型系统及其运行损害的“多因一果”特点时,线性的因果关系逻辑和单一的归责因素考量可能导致责任分配失衡。为此,就需要借鉴相关理论来重构大模型运行损害责任分担的理论基础和归因范式,以此为多元主体的分层义务配置与责任分担机制构建提供指引。

(一)
理论基础的重构:风险分配与矫正正义的耦合

在面对大模型带来的技术不确定性时,风险社会理论为责任分配提供了新的视角。德国社会学家乌尔里希·贝克(Ulrich Beck)的理论强调,现代社会的风险跨越时空,并且由复杂的技术系统引发,这使得传统的责任机制难以应对新兴技术带来的挑战。因此,必须构建一种动态调整的责任分配机制,依据风险转移的变化进行合理调整,以实现更公平的责任分担,并避免“有组织的不负责任”的现象。同时,矫正正义的理论提供了基于实际控制能力和经济利益的责任分配原则。
1.风险社会理论下的动态分配

贝克的风险社会理论把当前的现代性诊断为“风险社会”,其主要特征在于:人类面临着生存的风险,而这种风险正是由工业社会所制造的;风险可以被界定为系统地处理现代化自身引致的威胁和不安全的方式。随着现代性的深化,社会不再仅仅围绕财富生产展开,而是转向了一个以风险为核心的新阶段。这些风险具有跨时空的特点,影响范围广泛,甚至超越国界。与此同时,贝克还提出了“有组织的不负责任”的重要概念,意思是包括公司在内的各种社会组织制造了当代社会中的危险,然后以组织体系非常复杂为由推卸责任。
风险社会理论揭示了现代社会中技术不确定性和复杂性增加,导致传统责任制度陷入无法妥善分配责任的困境。大模型技术的快速发展带来了前所未有的技术不确定性,这使得现有的责任分配机制难以应对。在这种背景下,我们需要一种能够根据风险转移而动态调整的责任分配机制。这意味着责任不仅应基于行为和损害之间的直接联系,还应考虑到技术进步带来的新型风险以及这些风险如何在不同主体之间流动和转换,以此致力于更公平地分配责任,避免因技术不确定性而导致各类组织徘徊于“不确定性与模糊定义关系”之间“有组织的不负责任”。
2.矫正正义的现代性调适

传统的“行为—损害”对应性归责模式在面对高度自治的大模型时显得无从入手和过于僵化。美国法哲学家科尔曼(Jules Coleman)提出的“混合矫正正义”理论提供了一个新的视角。该理论主张侵害人有义务修复不法行为和修复不法行为本身引发的不法损失。由此带来的重要启示是,在复杂的系统中,责任应当根据主体对系统的实际控制能力和从中获得的经济利益进行分配。这种方法有助于克服传统归责模式的局限性。具体到大模型的应用场景中,开发者和部署者应根据其对模型的技术与风险的实际控制力及其商业收益的比例承担相应的义务和责任。简言之,责任分配应当依据技术控制力、风险预见性和收益情况进行动态调整,从而实现更为公正的责任分担。欧盟《人工智能法》要求高风险系统提供者承担无过错责任,实际上就体现了“收益越高,责任越重”的逻辑。通过引入这种收益关联性的考量,可以在复杂的多主体系统中实现更为合理和公正的义务配置与责任分担,在促进技术创新的同时更有效地保障公共利益和社会安全。

(二)
归因范式的重构:动态三维归因模型

在构建大模型运行损害的多主体责任分担体系时,最关键的是在多主体之间构建合理可行的因果关系分析方法。基于前文论述,针对大模型运行损害所具有的主体多元性、算法黑箱性以及损害多因性,有必要突破单一因果链条,构建一种由“技术—控制—收益”构成的动态的三维归因模型。
1.技术可行性

大模型的开发者在技术可行性方面的疏忽是导致损害发生的重要原因之一。例如,在大模型使用所引发的歧视性事件中,可能因为开发者未能充分测试算法的公平性,导致部分用户受到不公平对待。谷歌的大语言模型就一直因其输出结果可能存在种族偏见而备受诟病。技术可行性维度着重考察开发者是否采取合理措施预见并防范技术性风险,如数据偏见检测、算法可解释性设计等,以此作为开发者是否承担责任的依据。
2.行为控制力

在运行过程中实时监控并干预模型输出对于防止意外损害也至关重要。因此,大模型的部署者应具备强大的技术实力和管理能力来实施有效控制,以确保模型的正常运行。例如,在自动驾驶汽车的应用场景中,部署者需要具备实时监控和干预的能力,以便在紧急情况下及时采取措施。特别是在完全和高度自动驾驶阶段,使用者对机动车的运行无法施加影响,如果部署者缺乏足够的行为控制力,则可能导致事故的发生。在人工智能生成内容侵权案件中,虽然用户是直接操作者,但平台作为技术支持方因未能有效监管和控制用户的不当使用行为,也应承担一定的责任。行为控制力维度主要考察部署者对模型运行的实际干预能力,如实时内容过滤、用户行为监控、不当输出结果预判等。如果未能履行大模型运行过程中的监控义务,则直接推定其对损害结果存在过错。
3.收益关联度

对于大模型的用户或使用者而言,除了比较明显的主观恶意之外,是否基于获利目的而使用大模型也应当作为因果关系推定和责任分担的关键要素。收益关联度维度主要考察使用者是否从侵权行为中直接或间接受益,如果是为了获利而使用大模型,或者使用大模型产生了实际的收益,就应当推定其对损害结果具有过错,除非其能够证明自己在使用过程中已经尽到了一般的善意用户应有的合理注意义务。
五、大模型运行损害的责任分担机制构建
在重构理论基础和归因模型的基础上,本文提出一种新的义务配置与责任分担机制,这种机制充分关注和考量前文所着重分析的大模型的技术特征、损害形态及其法律特征的特殊性,以三维归因模型为依托,在法技术工具上采取分层义务配置、原因力分析方法、比例原则与社会化分担相结合的责任设计,并结合动态风险协议制度,以此构建一个动态、灵活且公正的责任分担机制。

(一)
多元主体的分层义务配置

在未来针对大模型的相关立法中,应当基于风险动态分配理念,区分开发、部署、使用三个阶段的义务,明确各阶段主体的义务与责任范围和分配标准。在此仅针对开发者、部署者与使用者三个核心主体来探讨其义务设置。
1.开发者:技术安全义务

开发阶段是大模型得以产生和投入运行的源头,开发者应当确保大模型的技术可行性,承担保障技术安全的基础性义务。具体而言,开发者的义务范围包括:(1)数据合规。即应当确保数据来源的正当性,对训练数据进行严格筛选和清洗,防止个人信息和个人隐私的泄露以及因数据质量问题导致的歧视等侵权行为。(2)算法安全。即应当确保产品在发布前经过充分测试,并配备必要的安全防护机制,采取可行的手段提高算法的透明度和可靠性。(3)伦理审查。从技术可行性角度,防范大模型的潜在风险在相当程度上可以通过伦理审查机制来实现。因此,大模型的开发者应当引入伦理审查流程,确保模型在发布前已经过充分的伦理考量和测试。例如,微软Azure AI伦理审查流程包含偏见检测、可解释性评估等六项核心指标,可作为技术可行性基准。(4)风险提示。特别是开源模型,开发者应当向用户明确清晰地提示可能的技术风险。对于开源性的非商业用途的大模型,如高校研究团队发布的开源模型,开发者可以依据技术风险提示来寻求责任减免。
2.部署者:过程监控义务

部署者在实际应用阶段需要履行一系列过程性的监控义务,具体内容包括:(1)算法微调的适当性。开源大模型允许部署者进行本地化微调,此时部署者应当确保本地化调用数据的真实与合法,算法微调的技术安全性与输出合规性等。(2)输出内容审核。大模型的部署过程中必须同时引入严格的审查机制,确保模型输出的内容符合法律法规和公序良俗。(3)用户行为记录。部署者应当结合技术手段、数据管理策略和合规要求,对用户输入内容、模型输出结果、用户操作行为以及交互时间戳、用户ID、设备信息、地理位置等元数据进行准确记录和保存。(4)实时内容过滤。部署者应当充分运用技术手段、规则引擎和动态监控,确保在用户交互过程中快速识别并拦截违规内容,防止敏感信息泄露,拦截恶意请求。此外,部署者还应建立完善的用户反馈机制,及时处理用户的投诉和建议,以减少潜在的法律纠纷。
3.使用者:合理注意义务

作为终端用户,使用者在使用过程中不仅应当遵守相关法律法规和用户协议,也负有合理注意义务,避免故意利用模型实施损害他人权益的行为。具体而言,大模型使用者的合理注意义务范围主要包括:(1)注意数据使用与提示词输入的合法性。使用者应当确保所输入的数据不涉及非法获取、未经授权或侵犯知识产权,确保输入内容不包含敏感词,避免触发模型生成违规内容。(2)审核模型输出内容。使用者应当对模型生成的内容进行真实性、合规性验证,不得直接用于误导公众或高风险决策(如医疗诊断、法律文书),对于可能侵害他人权益或公共利益、违反公序良俗的内容以及虚假信息等不得使用和发布。(3)风险报告与应急响应。使用者发现模型输出存在违法信息、重大错误或安全漏洞时,及时向平台反馈并协助调查以促使其改进;在自动驾驶、医疗活动、金融交易等高风险场景中,建立人工审核机制,防止模型错误引发事故。(4)维护网络与数据安全。使用者应当妥善保管账号密码,不得向他人泄露或转让账号使用权;在金融、政务等使用场景中,需通过平台提供的安全通道传输数据;及时下载安装平台提供的安全更新或补丁,防范技术漏洞被利用。(5)人工智能使用情况声明。使用者对于利用大模型生成的内容应当在显著位置标注人工智能生成内容的标识,如媒体平台应当注明“AI辅助创作”,并尽可能明确AI辅助的具体工作与比重。

(二)
基于分层义务的责任分担机制

基于各主体的基本义务,责任分担机制应根据其在大模型运行中的角色和风险控制能力设定不同的归责原则。开发者对模型设计缺陷负主要责任,采用严格责任原则;部署者则承担运营过程中的过错推定责任;使用者则依据过错责任原则对恶意行为承担主要责任。此外,采用原因力分析范式可以有效应对多因致害和非线性因果关系,通过动态调整责任比例,精细化地分配各方责任,促进更公平的风险分配。
1.根据各主体的基本义务采用相应归责原则

开发者对模型设计缺陷和初始风险负主要责任,采用严格责任原则。若因训练数据非法或模型漏洞导致损害,开发者需承担赔偿责任。为了鼓励开发者采取更有效的风险管理措施,可以引入类似“安全港”规则,规定如果开发者能够证明已采用“行业最佳实践”来防止损害发生,可以减轻或豁免其责任。部署者对运营过程中的风险负直接责任,采用过错推定责任原则,除非其证明自己已经履行过程监控义务,否则需承担赔偿责任。使用者对故意或重大过失行为负责,采用过错责任原则。若因恶意滥用模型从事违法行为造成损害,应当承担主要赔偿责任。另外,考虑到三维归因模型中的收益关联度维度,对于基于营利目的而使用大模型引发损害的,可以采用过错推定原则。
2.利用原因力分析范式合理划分责任

原因力分析范式的适用须以多因致害构成为前提,是关于某原因对损害事实作用力的定量分析,用以解决多因致害构成基础上的责任分担。原因力分析能够有效地应对大模型运行损害中因技术特性引发的主要难题。首先是彰显技术中立的价值立场。不因技术复杂性而简单地全部追责或者否定追责,而是通过多维要素的综合考量来合理分配义务和责任,比如,就可控性而言,开发者对大模型算法架构的控制力明显高于普通用户。其次是可以解决非线性因果关系难题。大模型损害常表现为“数据输入→算法处理→用户交互→社会影响”的网状因果链,在原因方面表现为一种间接、叠加的特性,比如在“算法偏见+过程失控+用户滥用”共同导致歧视性结果的情形下,原因力分析范式可以清晰地分解各节点对于结果的影响程度,比如算法偏见占20%,过程失控占20%,用户滥用占60%,进而在不同主体之间比例性地量化其责任。再次是可以应对动态系统风险。大模型通过持续学习能够改变行为模式,原因力分析范式有助于引入实时权重调整机制,比如,部署者在部署大模型后未及时更新安全补丁,对于相应的损害结果分配时应当相应加重其责任。最后是实现责任分配的精细化。原因力分析范式可以按照各主体对于结果的实际影响分配义务和责任,避免采用连带责任的“一刀切”做法。比如,数据的有偿提供方仅对训练阶段因数据质量问题导致的偏见负责。此外,原因力分析范式也有助于激励风险预防,通过原因力各要素的权重提示各主体应强化的义务,比如,开发者可以通过增加算法的透明性以降低自身原因力占比。
原因力分析范式体现的是多主体责任分担上的比例原则。比例原则在侵权责任法领域的规则呈现主要是《民法典》第1172条所规定的“二人以上分别实施侵权行为造成同一损害,能够确定责任大小的,各自承担相应的责任”。对于大模型运作产生的损害赔偿责任,比例原则的适用主要通过考察过错程度、风险贡献度与原因力强度等来划分开发者、部署者与使用者的相应责任。另外,各方的责任比例也可以通过举证责任倒置、责任限额与追偿、行业标准与技术辅助等来实现灵活的动态调整。
3.构建责任的社会化分担机制

价值对齐是大模型伦理风险防控的核心手段,大模型价值对齐的运行机理展现了人机协同的技术治理逻辑,价值对齐的理念应从绝对安全转向合理成本的模型安全,从单一维度规制转向共建共享的合作治理。为了分散因大模型运行可能造成的损害赔偿风险,实现技术发展成本的社会化分担,可以推动建立大模型责任保险共同体,吸引更多企业和机构参与,共同应对可能的风险。另外,为了更好地保护受害者的合法权益,也可以从行业营收中提取一定比例的资金,设立大模型损害救济基金,用于先行赔付受害者的损失。

(三)
动态风险协议制度

动态风险协议是一种适应技术演进的自治性的责任配置弹性机制,通过开发者与部署者预先设定风险预警阈值及责任转移条件,可以提升责任分配的灵活性和适应性。当模型迭代导致控制力发生变化时,双方可以根据实际情况重新评估并调整各自的义务和责任。这种动态风险协议不仅可以提高各方的责任意识,还能促进技术的持续改进和发展。
1.协议内容

动态风险协议本质上是一种风险预警与责任转移的技术契约,其内容可以包括以下几个方面:一是关于风险预警阈值的量化设定。设定特定的风险指标,如模型输出偏离度、用户异常行为频次等,一旦超过该阈值,即触发相应的应对措施,如人工审核介入。二是关于责任转移条件的动态约定。可以明确在何种情况下,责任应由一方转移到另一方,以及具体的转移程序。例如,部署者擅自修改模型架构(如增加多模态接口)导致控制力变化时,开发者责任相应减轻。三是协议更新机制。应定期对协议进行审查和更新,以适应技术发展和社会变化的需求。
2.法律效力

动态风险协议需要接受司法机关对其的效力审查。在审查标准方面,法院重点审查协议是否遵循“技术合理性原则”(如风险阈值是否基于行业标准设定),避免显失公平。同时,为了增强动态风险协议的法律效力,建议将其提交第三方认证机构对协议中的技术指标(如风险阈值设定方法)进行合规性认证,经过认证的协议可以作为责任减免的依据。此外,还可以通过立法或司法解释的方式,进一步明确动态风险协议的法律地位和适用范围,从而为各方提供更加明确的行为指引。
3.实施路径

为了有效实施动态风险协议,需要行业自治与立法赋能的协同推进。行业自治方面,行业协会应制定《大模型动态风险协议范本》,明确技术参数设定方法。这不仅可以提高行业的自律性,还能为各主体提供标准化的操作指南,减少因协议不一致而导致的争议。立法赋能方面,应在未来制定规范人工智能使用的相关立法时加入“技术契约优先适用条款”,承认经认证协议的证据效力。这一条款可以参考《电子商务法》第48条的自动化电子合同规则,确保动态风险协议在法律框架内具有明确的地位和执行力。
结语
人工智能技术的指数级发展正深刻重构社会运行规则,大模型作为新质生产力的代表,其数据依赖性、自主演化性和算法黑箱性特征持续挑战传统法律机制的适应性。传统的“行为—损害”线性归责逻辑在面对高度自治的大模型时显得过于僵化。一言以蔽之,大模型损害责任的分担绝非简单的“连坐”或“豁免”,而需构建技术逻辑与法律价值兼容的动态责任分配机制。本文以风险社会理论与矫正正义理论的耦合为分析框架,突破传统归责范式的行为中心主义,提出以技术可行性为边界、以风险控制力为基准、以收益关联度为调节的三维归因模型,构建分层义务配置、比例责任划分与动态风险协议相结合的大模型运行损害责任分担机制,为破解“有组织的不负责任”困境提供系统性法律方案。这种方案固然仍显粗陋,尚存诸多有待进一步探究和完善之处,但其至少为这一领域的后续研究提供了一种有意义的启发,那就是:在算法权力深度嵌入社会运行的当下,唯有通过精细化的责任配置与协同化的全球治理,方能实现技术向善与权利保障的共生共荣,为数字文明可持续发展奠定法治基石。

往期精彩回顾
白云锋|数字体行政组织法地位的审查框架
刘云|网络数据爬取合法性判定的三阶层认定标准
孙济民|从财产到合同:论数据爬虫法律规制的范式转型
徐则林|人工智能供应链市场的反垄断规制革新
赵陶钧|数据产权需要期限制度吗?
李欢|数据资产出资适格性的检视与完善

上海市法学会官网
http://www.sls.org.cn