我的位置: 上观号 > 上海市法学会 > 文章详情

付新华|人工智能统一立法宜缓行

转自:上海市法学会 2025-05-27 08:21:10

在技术变革与社会风险的双重驱动以及国际科技竞赛与规则竞争双重博弈的推动下,人工智能统一立法的呼声日益高涨。然而,人工智能技术的复杂性、发展路径的不确定性和应用场景的差异性,使统一立法面临法律滞后、规制僵化、监管错配和创新受阻等挑战。基于技术哲学、渐进社会工程理论与社会系统论的交叉论证,人工智能立法应遵循渐进式治理模式,审慎推进统一立法。我国人工智能立法应构建“时间—空间”双重弹性框架,增强法律适应性与治理韧性,在促进技术发展与防范风险之间寻求最佳平衡。在时间维度上,应采取渐进式立法路径,结合技术成熟度监测、“试错法”治理模式和反身性法律框架,实现法律监管与技术发展的双向互动与协同演进,避免过早规制锁定技术发展路径;在空间维度上,需实施分层治理,依托国家、行业和地方三层次治理体系,结合政策试验区、行业自律和监管沙盒,探索灵活适应的法律监管模式。

引言
人工智能技术的指数级突破正以前所未有的方式重塑着经济社会的运行模式,引发了一系列法律与伦理争议。特别是近年来生成式人工智能的横空出世,在推动技术跃迁的同时,也带来了数据安全、算法歧视、版权争议、责任归属等诸多复杂治理难题。围绕人工智能治理的法律讨论逐渐升温,其中,关于统一立法的呼声日益高涨,成为理论界和实务界共同关注的重要议题。
从理论研究来看,我国当前已有两部人工智能法专家建议稿问世,同时涌现了大量围绕人工智能立法定位、基本理念、价值目标、路径选择及体系架构的研究成果。这些成果构成推动人工智能统一立法的理论基础。从国家立法规划和相关政策来看,2017年《新一代人工智能发展规划》提出人工智能立法“三步走”的策略,《全国人大常委会2024年度立法工作计划》进一步提出研究“人工智能健康发展”的立法项目,《国务院2024年度立法工作计划》则明确将人工智能法草案列入预备提请全国人大常委会审议的项目。人工智能统一立法似乎已从理论构想进入立法实践的关键阶段,成为一项“箭在弦上”的时代任务。
从国际视野来看,人工智能立法模式呈现分化趋势。欧盟于2024年正式通过全球首部综合性《人工智能法》,意图在人工智能立法领域延续其“布鲁塞尔效应”;与之相对,美国不仅至今未出台任何联邦层面的人工智能法,还在2025年废除了《关于安全、可靠和可信地开发和使用人工智能的行政命令》,进一步放松对人工智能领域的监管。这一制度选择的差异,反映出欧盟与美国关于人工智能的治理理念、战略重心与政策取向的根本分歧。在全球科技竞争与规则博弈日益加剧的背景下,中国应如何选择自身的人工智能立法路径,已成为亟待回应的重大课题。这不仅关乎立法模式的抉择,更关乎国家战略布局、产业发展方向与整体治理理念的制度定位,直接影响中国的技术竞争力与制度影响力。
本文的人工智能“统一立法”,并非泛指所有立法活动,而是指通过一部综合性法律,在形式上实现“集中规范、体系统一”的立法模式,其通常承载着“一法统筹”式的制度期待,试图通过一部法律实现要素治理、产业促进、内容管理、权利保障与风险防控等多重政策目标。然而,这一立法模式面临双重挑战:一方面,各项政策目标内部仍然存在较大分歧,如数据要素治理中关于数据权益归属的争议,训练数据使用所引发的著作权与个人信息保护问题等;另一方面,形式统一所依赖的高度确定性与结构封闭性,难以适应人工智能技术的快速演进、应用场景的异质性与风险类型的持续变动,容易引发规制僵化、监管错配、创新受阻等问题。
在此背景下,本文主张,当前阶段不宜急于制定形式统一的人工智能法,而应以更加审慎和渐进的态度和方法推进统一立法进程。通过深化理论研究、丰富实践经验,逐步建立适应技术多样性和动态性的法律体系,为未来的人工智能统一立法奠定更为坚实的基础。这不仅是对技术发展规律的尊重,也是在技术发展与风险防范之间实现平衡的必然选择。
一、人工智能立法热潮的动因分析
在人工智能技术变革及其引发的社会风险的双重驱动以及国际科技竞赛与规则竞争双重博弈的背景下,国内围绕人工智能统一立法的讨论逐渐升温。

(一)
技术变革与社会风险的双重驱动

人工智能技术的快速迭代和应用场景的持续拓展,成为推动当前立法热潮的直接技术动因。据报道,我国人工智能核心产业规模达到5000亿元,企业数量超过4500家,融合应用深度拓展。人工智能的技术突破已在多个领域引发深远影响,同时也带来了责任归属、深度伪造、就业替代与数据安全等法律与伦理挑战。
人工智能在医疗和自动驾驶等高风险领域的应用,引发了复杂的责任归属问题。在医疗场景中,人工智能通过深度学习分析大量数据以辅助诊断和治疗,虽提升了效率,却因算法不可解释性和对数据的高度依赖而存在误诊风险。例如,IBM Watson Health曾因算法缺陷推荐了错误的癌症治疗方案,国内亦曾发生“手术机器人”引发的医疗事故责任争议。传统医疗责任通常由医生或医院承担,但在人工智能参与诊疗的背景下,责任主体日益模糊,医生、医院与人工智能开发者之间的责任分配尚无明确规则。同样,自动驾驶汽车的发展也引发了复杂的法律归责问题。此类系统高度依赖深度学习算法感知交通环境并自主作出驾驶决策,具有明显的“黑箱”特征,致使事故发生后的行为归因与责任认定充满不确定性。在实践中,责任可能在汽车制造商、系统开发商、驾驶员甚至乘客之间多方交错,亟需通过“法权利益衡量”对各方在控制能力、风险承担与收益分配中的地位进行系统评估,从而构建兼顾安全保障与技术创新的责任分配机制。
深度伪造技术突破传统信息真实性边界,引发了系统性伦理风险与法律规制难题。深度伪造技术最早于2017年在美国社交媒体平台上出现,并迅速扩散,催生了伪造色情视频、捏造政治人物演讲、虚构企业家新闻等现象,使“眼见为实”不再可靠。随着技术门槛降低,深度伪造突破伦理与法律边界,引发虚假宣传、名誉损害、财产损失、安全威胁等系统性社会风险,甚至导致社会信任危机。例如,2023年杭州互联网法院受理的“人工智能换脸”侵权案。人工智能“复活”逝者更是引来伦理和法理的双重审视。这种技术既可能用于纪念逝者,也可能被滥用于商业化或欺诈目的,对个体人格权、数据权利和社会情感伦理产生深远影响。在某些情况下,深度伪造甚至可能被用于政治操纵,加剧公众对“真实性消亡”的集体焦虑。
人工智能引发的结构性就业替代趋势,暴露出现行法律与社会保障体系的适应滞后。人工智能的快速发展引发了技术性失业的争议,凸显了产业结构调整与劳动力市场适应之间的矛盾。据麦肯锡全球研究院预测,到2030年至2060年,全球约50%的现有岗位可能被人工智能取代,而技术迭代的速度远超职业培训和劳动力再分配的周期,加剧了“技能鸿沟”与“岗位创造滞后”之间的矛盾。2024年,无人驾驶出租车在武汉试点运营,引发出租车司机的大规模抗议,成为技术替代引发劳动力冲突的典型案例。在制造业、金融、法律等多个领域,人工智能也正加速渗透,逐步取代大量高度重复、规则性强的传统岗位。这一转型冲击呈现出明显的不均衡特征,低技能和中等技能工种首当其冲,而高技能岗位则因人工智能辅助效应获得效率提升,从而加剧劳动力市场的结构性分化。
人工智能驱动下的大规模数据采集与跨境传输,激化了国家数据安全与主权治理的法律挑战。在智能交通领域,搭载高精度激光雷达、毫米波雷达及多光谱摄像头的车辆,每秒可生成TB级三维地理坐标数据。这类时空信息经深度分析可还原军事基地、能源管网等战略要地的空间坐标。2024年,某跨国企业以“技术合作”名义,在中国非法进行地理测绘活动,利用本土代理机构收集道路云数据,导致数据被传输至境外,经认定,这些数据中包含国家秘密,相关企业和责任人已被依法追究法律责任。此外,跨境数据流动同样面临安全隐患。人工智能时代,大规模、实时化的跨境数据传输成为常态,也是当前国家、地区间政策博弈最为复杂的领域之一,凸显出我国在关键数据识别、流动规则设定与跨境监管方面亟需构建更为完善的法律框架与合规体系。

(二)
国际科技竞赛与规则竞争的双重博弈

人工智能立法的全球浪潮源于国际科技竞赛与规则竞争的双重博弈。人工智能已成为各国争夺未来经济主导权与国家安全优势的关键技术,而立法则是推动国家战略落地的重要手段。在这一背景下,人工智能立法不仅是技术治理的必要环节,更是全球技术秩序主导权争夺的核心战场。“哪个国家能率先发现并确立基本规则,哪个国家就有可能引领人工智能法整体范式变革”。因此,各国纷纷通过立法巩固技术领先优势、推动产业升级,并在国际规则制定中争夺话语权。这一趋势呈现出立法与科技战略深度绑定、立法模式差异化、国际规则竞争日益激烈等特征。
欧盟采取以“风险防控”为核心的治理模式,试图通过立法输出影响全球人工智能治理格局,延续其《通用数据保护条例》(以下简称GDPR)的“布鲁塞尔效应”。自2018年《欧洲人工智能战略》提出以来,欧盟不断完善监管体系,于2019年和2020年先后发布《可信人工智能伦理指南》《人工智能白皮书》,并在2022年到2023年间陆续通过《数据治理法》《数字市场法》《数字服务法》《数据法》等重要法规,最终在2024年通过全球首部《人工智能法》。《人工智能法》首创基于风险等级的监管框架,将人工智能应用划分为不可接受风险、高风险、有限风险和最小风险,并对高风险应用设定严格合规要求。
然而,相较于GDPR时代的立法趋同,本轮人工智能立法呈现明显的国际分化格局。美国的人工智能立法紧密围绕国家安全与经济竞争展开,核心目标是维持全球技术领导地位。从2016年提出《国家人工智能研究与发展战略计划》,到2019年的《保持美国在人工智能领域的领导地位》行政命令,再到2022年的《芯片与科学法案》与《国家人工智能研究资源法案》,美国始终致力于维持并强化其全球技术领先地位。《人工智能权利法案蓝图》《人工智能风险管理框架》等文件,虽有指导意义但缺乏法律约束力。2025年撤销了《关于安全、可靠和可信地开发和使用人工智能的行政命令》,凸显出其“发展优先”的治理理念。
英国于2023年发布《促进创新的人工智能监管方法》,提出区别于欧盟“基于风险等级”的“基于结果”的监管框架,重点关注人工智能的具体应用情境及其影响,而非按技术类型或风险等级设定统一监管标准。韩国则在2024年通过《人工智能发展及信任基础建立基本法》,该法成为全球第二部综合性人工智能立法,兼顾产业振兴与风险防范,旨在通过资金扶持和柔性监管推动技术突破。日本于2025年提出《人工智能相关技术的研发及应用促进法》草案,直接明确以产业促进为核心的立法目标,通过制度化政策支持强化本国在全球科技竞争中的地位。
从既有实践来看,中国采取“政策引导+专项立法+分阶段推进”的模式。自2017年《新一代人工智能发展规划》发布以来,逐步构建起从国家战略到地方立法试点的多层次治理体系。在国家层面,以专项立法的方式出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等专项法规;在地方层面上海、深圳等地制定了人工智能产业促进条例。这些规定具有明确的目标导向,在应对具体风险方面具有较强针对性,但整体仍较为碎片化,缺乏体系性。在此背景下,不少学者建议出台统一立法,打造具有国际影响力的“中国制度名片”。
二、人工智能统一立法的潜在问题
人工智能统一立法虽然可以建立系统性、全面性的法律框架,然而,人工智能技术的复杂性、发展路径的不确定性以及应用场景的差异性,使得统一立法在实践中面临诸多挑战。

(一)
人工智能技术演进的不确定性:统一立法的底层逻辑困境

从技术发展的角度来看,统一立法面临底层逻辑的不确定性,使得其可行性和适应性存疑。特别是人工智能技术仍处于高速演进阶段,技术路径尚未收敛,风险场景高度分化,此时若出台一部覆盖广泛的统一的法律框架,可能因技术快速迭代而面临失效风险。一方面,不同类型的人工智能在发展路径上呈现高度分化趋势:通用人工智能以构建强认知系统为目标,垂直人工智能聚焦特定任务的性能优化,而具身人工智能则强调物理环境中的智能交互。这种多元并进的技术格局,决定了统一立法难以全面覆盖其异质性需求。另一方面,人工智能的技术突破往往带来跨领域的连锁变革,尤其是生成式人工智能的出现,不仅重塑了自然语言处理技术,也在教育、医疗、法律等多个行业引发深远变革。这一复杂的技术生态导致若基于当前技术现状立法,可能陷入“锚定效应”,难以适应未来的技术范式转型。
以欧盟《人工智能法》为例,该法在起草时将人工智能定义为“软件”,但随着ChatGPT的出现,不得不将其修改为“系统”以适应新的技术形态。除此之外,该法在起草时以“风险分级”为核心监管框架,然而,这一分类体系主要围绕专用人工智能(如自动驾驶汽车、医疗人工智能)展开,未充分考虑通用人工智能的潜在影响。ChatGPT的出现不仅跨越多个行业应用场景,还具备自主学习与泛化能力,直接冲击了《人工智能法》原有的分类逻辑,迫使欧盟在法案通过前紧急增设“通用人工智能监管”条款。
人工智能技术的高速迭代与立法周期的相对滞后进一步加剧了法律失效的可能性。生成式人工智能从研发阶段到大规模商业化往往仅需数月,而立法过程涉及提案、调研、审议、表决等多个环节,且需在产业发展、技术安全、社会伦理等多重考量之间寻求平衡,立法者通常需要数年时间来理解技术逻辑、评估社会影响,并协调多方利益诉求,才能制定相关规则。欧盟《人工智能法》从草案提出到最终通过耗时近三年,而在此期间,人工智能技术已完成多次代际升级,使得部分法案条款尚未生效便已过时。这种立法周期与技术迭代速率的严重脱节,使得统一立法在实践中难以保持适应性,最终可能陷入持续修订的循环。
为应对技术发展的不确定性,主张人工智能统一立法的学者提出应在法律框架中预留调整和补充接口,以便在技术成熟时完善具体制度。这一思路具有一定的前瞻性和合理性,但技术演进往往超出既有认知,单靠预留接口未必能有效应对现实挑战。不仅《人工智能法》在制定过程中遭遇因生成式人工智能的出现而被迫修改的情况,更早制定的GDPR也遭遇了深层次的结构性冲击。生成式人工智能的数据处理模式和强大的数据生成能力,对个人信息保护法的基本原则和核心权利构成前所未有的挑战。这些挑战已超出传统法律“预留接口”所能解决的范畴,进一步凸显了在技术范式尚未稳定前进行统一立法的局限。

(二)
过度监管与治理泛化:统一立法可能导致“一刀切”

人工智能统一立法可能导致“一刀切”监管。一方面,过于严格的监管框架可能抑制技术创新。一般而言,监管过严会抑制市场创新活力,固定化、统一化的监管模式往往忽视人工智能技术发展的阶段性和多样性,可能造成“寒蝉效应”。首先,初创企业的生存压力加剧。严格的合规要求,特别是高昂的数据合规成本,对资源有限的企业构成沉重负担。研究显示,欧盟《人工智能法》可能导致欧洲经济损失310亿欧元,并使人工智能投资减少近20%,对于部署高风险人工智能系统的中小企业,合规成本可能高达40万欧元,利润下降40%。其次,企业为降低合规风险,往往趋于规避高监管技术领域,导致技术探索趋于保守。特别是在生成式人工智能、情感识别等前沿领域,监管不确定性与合规不可预期性,可能使企业主动放弃关键技术研发,削弱了原始创新的动力。最后,这种创新活力的退潮进一步导致人才和资本向海外低监管法域迁移,造成技术竞争力的结构性流失,进而对人工智能产业生态带来系统性冲击。
另一方面,若法律监管框架仅停留在原则性规定层面,而缺乏具体、可操作的实施细则,则可能流于形式,法律权威性受损,既无法有效约束企业行为,又可能加剧企业合规的不确定性。模糊条款可能导致监管执行标准不统一,使企业在不同解读之间游走,削弱法律的实际约束力。例如,如果“高风险人工智能”的定义不明确,企业可能借助合规漏洞规避监管,导致法律目标难以落地。除此之外,合规不确定性加剧,企业可能采取过度保守策略,影响人工智能技术的应用推广。
以中国的《生成式人工智能服务管理暂行办法》为例,该法规虽作为专项立法出台,但在内容上主要延续《网络安全法》《数据安全法》和《个人信息保护法》的相关规定,未对生成式人工智能的研发者、提供者和部署者设定明确的法律义务。其核心作用可能仅在于宣示生成式人工智能并非“法外之地”,而非提供细化、可操作的监管框架。究其原因,相关技术刚刚兴起,行业认知尚未成熟,法律制定难以形成广泛共识。专项立法尚且面临适用性的挑战,更遑论制定一部覆盖所有人工智能技术的统一立法,其难度可想而知。

(三)
规则与场景错配:统一立法的适用困境

人工智能技术在医疗、交通、教育、娱乐等领域的应用场景差异显著,不同行业对法律规制的需求各不相同。统一立法模式往往难以精准适配这些差异,加剧了规则与场景错配的法律适用风险。
其一,在医疗领域,人工智能主要用于疾病诊断、手术辅助和药物研发,法律监管重点在于数据质量、算法透明度和伦理审查。由于医疗人工智能涉及患者生命安全,误诊可能带来严重后果,因此该领域需要较高的安全标准和严格的伦理监督。其二,在交通领域,自动驾驶技术的发展涉及责任划分、安全标准和数据隐私保护等问题。若发生交通事故,法律需明确驾驶员、汽车制造商和自动驾驶系统开发者的责任归属,否则可能导致责任归属混乱,影响事故处理和赔偿机制。其三,在教育领域,人工智能广泛应用于个性化学习、自动评分和考试监控,法律风险主要集中在数据隐私保护和算法公平性。如果法律无法有效约束教育人工智能的歧视性偏见,可能加剧教育不公。其四,在娱乐领域,人工智能的核心法律问题则集中在版权保护和内容监管。人们利用生成式人工智能创作的音乐、视频和艺术作品的著作权归属尚需进一步明确。由于人工智能在不同行业的风险水平和法律需求存在显著差异,统一立法若缺乏灵活性,可能带来一系列负面影响。
此外,不同行业的技术成熟度存在显著差异,也进一步增加了统一立法的适配难度。例如,医疗人工智能的监管体系相对成熟,美国FDA已建立专门的审批流程,对医疗人工智能算法的数据质量、透明度和安全性提出明确要求。而在生成式人工智能内容监管方面,现行法律体系尚未形成统一的治理框架,不同国家的立法取向也存在较大分歧。如果人工智能立法试图通过一部法律规范技术成熟度不同的人工智能应用,不仅难以满足行业需求,还可能降低法律的可执行性,增加企业的合规成本。
再以欧盟的《人工智能法》为例,该法案试图通过风险等级划分来建立统一的监管体系,然而其过于追求形式的统一性,将不同行业和领域的风险进行等级划分,这种等级划分不仅非常武断,而且在风险等级评估过程中也面临巨大挑战和争议。一方面,风险等级的划分标准过于武断,不同行业的技术特点、伦理考量和应用模式难以被简单归类;另一方面,人工智能的风险评估本身充满争议,同一类技术在不同应用场景下可能产生完全不同的风险级别,而欧盟的监管框架难以动态调整,导致法律执行存在较大的灵活性缺陷。因此,过度强调统一的法律框架,而忽视行业差异和技术演进的不同阶段,不仅可能加剧规则与场景的错配,还可能降低法律的适应性,影响人工智能产业的健康发展。
三、人工智能立法缓行的法理证成
人工智能统一立法的时机与路径,不仅是法律规制与技术发展的简单匹配问题,更涉及技术演化规律、治理工具选择及社会系统自适应的复杂交互。基于技术哲学、渐进社会工程理论以及社会系统论的交叉论证,可以构建一个基于技术规律、治理方法和社会系统的全景式反思框架,为人工智能统一立法缓行提供法理依据。

(一)
技术哲学视角下的本体论反思:技术成熟度与立法介入的时机

20世纪最有影响力的技术哲学家之一雅克·埃吕尔(Jacques Ellul)指出,技术的本质是“在人类活动的各个领域通过理性获得的(在特定发展阶段)有绝对效率的所有方法”。换言之,技术的发展遵循效率最大化的内在规律,具有自我推动的演化趋势。蒸汽机革命的本质在于用机器替代人的体力劳动,而计算机革命则进一步实现了机器智能化,在一定程度上取代了人类的脑力劳动。生成式人工智能的出现,则将这一逻辑扩展到创造性任务领域,不仅提升了计算和逻辑推理效率,更在部分领域接近甚至超越人类的创造能力。技术的这种效率驱动性使其演化具有自主性,并非完全受控于人类意志。正如凯文·凯利在其著作《科技想要什么》中所言,我们发明的东西正用一种自身迭代的方法孕育出其他发明。
依据埃吕尔的技术演进理论,技术发展的内在逻辑主要表现为以下三个特征:第一,技术系统的自增性,即技术进步依赖于既有技术要素的组合,是技术体系内部逻辑的自然延展,而非孤立创新;第二,技术前进的自动性,即技术沿自身路径演进,虽涉及人的选择,但受制于既有技术框架和技术理性,具有自我定向和自动选择特征;第三,技术发展的无目标性,即技术并非按人类设定的特定目标推进,而是基于当前技术增长可能性的自然演化,其发展方向难以被人为精确控制。表面上看,人类似乎可以决定是否发明或采用某项技术,但实际上,技术的发展受社会历史条件约束,遵循内在逻辑,同一发明在不同地区同时出现的现象表明,技术创新往往是必然的,而非偶然的。
从技术哲学视角审视,人工智能统一立法的必要性应当深植于技术发展的客观规律之中。技术发展具有其自身的内在逻辑,过早施加外部规制可能引发“技术—制度”的交互扭曲。历史表明,许多科学领域的重大变革往往是在技术超越既有认知后,才得到正确定义。19世纪末的物理学家未曾想到,似乎是坚不可摧的牛顿经典力学会受到相对论和量子力学的挑战;而当时的化学家如果知道原子不可再分是错误的,也一定会大吃一惊;同样,当时的生物学家也绝不会想到,遗传现象的研究会由于发现了DNA结构后而发生巨大的革命。
当前,人工智能技术处于快速迭代阶段,技术体系尚未稳定,社会共识仍在形成,过早实施统一立法可能引发三重风险:一是技术锁定效应,若以当前主流技术为基准设定监管标准,可能压制替代性路径的发展,如欧盟GDPR对数据使用的严格限制,实质上强化了拥有封闭数据池的科技巨头的优势。二是创新激励扭曲,若法律过早聚焦特定风险,如“一刀切”地要求模型可解释性,可能固化技术路线,忽视行为监测等更有效的风险防控机制。三是制度适配失衡,法律逻辑与技术逻辑之间存在张力,如个人信息保护法倡导的数据最小化与人工智能训练所需的大规模多样化数据之间形成冲突,可能导致企业合规成本上升,削弱数据驱动型技术的发展潜力。
根据2024年Gartner技术成熟度曲线,当前生成式人工智能仍处于“过高期望峰值期”。这一阶段技术因媒体炒作和市场热情而受到广泛关注,然而,这一阶段往往伴随着技术本身的不成熟和局限性未能完全显现的情况。尽管生成式人工智能展现出了令人惊叹的能力,但在实际应用中依然存在“幻觉”、稳定性不足、数据偏见、伦理风险等问题,当前对于生成式人工智能的监管和标准制定尚处于探索阶段,许多问题(如数据使用、版权争议、风险控制等)尚未形成统一共识。此时,若过早推行统一立法可能会固化特定技术路径、削弱创新激励,并导致法律与技术发展的错配。

(二)
渐进社会工程理论的方法论解构:“试错法”与渐进治理路径

卡尔·波普尔(Karl Popper)提出的渐进社会工程理论,以“试错法”为核心方法论,构建了一种符合复杂社会治理需求的渐进式治理模式。该理论主张,在面对高度不确定和多变的社会问题时,治理者应通过逐步调整与持续反馈推进制度革新,而非寄望于一次性构建完备的“乌托邦式”治理体系。渐进社会工程理论包含两个基本逻辑:第一,科学认知的试错本质。波普尔认为,科学发展是一个不断提出假设、通过证伪法筛除错误的过程,所有科学理论都是暂时未被证伪的假设,人类知识的增长依赖于“猜测—反驳”循环,从而动态接近客观真理。第二,社会治理的渐进路径。波普尔批判乌托邦式的整体社会重构,主张以“最小痛苦原则”为治理目标,即治理并不在于构建一个实现“最大幸福”的理想社会,而在于以最小的社会代价,逐步消除已存在的具体问题与恶行。
渐进社会工程理论以其对人类理性边界的深刻认知和对实践反馈机制的高度重视,与中国“摸着石头过河”的治理经验形成深度契合,为应对新兴技术治理中的高度不确定性提供了重要方法论支撑。在人工智能治理领域,尽管许多政策倡导人工智能向善,但波普尔的理论更加强调解决现实风险,例如算法歧视、数据滥用、模型偏见等问题。渐进社会工程理论强调“寻找社会上最重大最紧迫的恶行并与之斗争”,而非试图一步到位地实现“最大善”。相较于“善”的抽象追求,治理应当优先消除“显性恶行”,如深度伪造滥用、隐私侵犯、人工智能决策不透明等,而非试图一次性制定覆盖所有潜在场景的统一法律框架。基于该理论的治理思路,应通过地方立法试点、监管沙盒、行业准则等机制,在小范围内探索制度安排与责任划分,并根据反馈不断优化算法透明度、伦理底线与合规要求,最终实现有效经验的制度化扩展。这一渐进式治理逻辑,既可以避免欧盟“过度预设—过早规制”所带来的创新抑制风险,又有助于克服美国“自由放任—事后应对”可能导致的社会代价,展现出一种在不确定性中实现风险可控与制度适应的治理理性。

(三)
社会系统论的反身性法律理性:促进技术自我规制的法律框架

德国法学家图依布纳(Gunther Teubner)在卢曼(Niklas Luhmann)社会系统论的基础上,提出“反身性法”(Reflexive Law)理论,强调法律应以促进社会系统自我调适为核心,而非直接干预或强制规制。其核心命题可凝练为三重逻辑:首先,现代社会的功能分化。社会已分化为政治、经济、科技等自治子系统,各系统遵循自身的逻辑运作,形成“无中心”的协同网络。法律作为“环境中的制度”,在规制其他社会子系统时,必须明确自身能力的边界,避免过度干预。其次,法律理性的范式转型。“反身性法”不同于传统的形式法或实质法,而是通过程序性框架激发社会子系统的自我反思能力。它不直接制定实体规则,而是提供结构化的调控机制,使技术、经济等子系统在法律框架下实现自我演化。“反身性法”在“通过法律的自我调整推动社会调整”这个意义上具有“反身性”,特别适合需要大量专业技术知识和充分自主发展空间的复杂社会领域。最后,共同演化的治理哲学。法律的目标不是替代社会子系统的决策,而是创造适宜的环境,使其自主生长出适应性规范。图依布纳进一步指出:“如果法律确实通过推进其他社会子系统中的反思进程来履行其整合功能,那么法律系统所要求的社会知识是非常具体的,并且模型建构的需要比在综合性的‘计划性’法律中要更加有限。反身性法仅仅需要利用和发展在不同背景中控制自我规制进程所需的知识。”
“反身性法”不同于诺内特(Philippe Nonet)和塞尔兹尼克(Philip Selznick)提出的“回应型法”。“回应型法”强调法律的能动性和适应性,法律实施机关在社会变革过程中保持灵活性,并在具体案件中富有弹性地解释法律。“回应型法”虽然具有反思理性的成分,通过与社会需求互动实现动态调整,但其仍然以实质理性为基础,即法律不仅适应社会变化,还主动介入、调整规制对象。而“反身性法”则不直接干预技术领域,而是通过构建法律“过程”与“关系”促进治理体系与信息社会结构的“和谐适配”,以增强社会系统的环境敏感性和自我反思能力。当前,人工智能立法试图通过统一规则来解决技术、伦理与经济子系统之间的冲突。然而,从“反身性法”的视角来看,这种做法属于实质理性的回归,可能存在过度介入之嫌。
四、人工智能立法缓行的基本路径
人工智能统一立法应该缓行的主张并非否认立法的必要性,而是强调立法需要与技术发展、社会需求和法律体系的复杂性相协调。我国人工智能立法应构建“时间—空间”双重弹性的治理体系,以实现促进技术发展与防范风险之间的最佳平衡。

(一)
时间维度:渐进式立法与协同演进机制

1.技术成熟度评估:确定立法介入时机

立法作为社会价值的权威化表达,应精准识别人工智能技术带来的社会变革,同时避免因过早介入而锁定技术路径、抑制创新或导致法律与技术发展脱节。技术哲学家埃吕尔指出,技术的发展具有自增性、自动性和无目标性,其演化往往超越既有认知,过早施加外部规制可能引发“技术—制度”交互扭曲。以生成式人工智能为例,其早期发展阶段不可避免地存在“幻觉”现象,如捏造事实、迎合用户偏好等问题,然而,随着技术的进步,这些问题可在模型优化过程中得到缓解,开发者亦有强大动机提升生成内容的准确性和可靠性。因此,人工智能立法应基于技术成熟度评估机制,在确保技术发展空间的同时,合理设定法律介入的时机与方式,构建适应性强的法律框架。
人工智能技术的成熟度直接影响法律干预的有效性。借鉴Gartner技术成熟度曲线的分类方法,可将人工智能技术划分为四个阶段,并据此采取分阶段立法策略,以避免过早规制抑制创新,或干预滞后导致治理失衡。第一阶段为技术萌芽期,此阶段技术仍处于实验和早期商业化阶段,市场尚未完全接受,技术应用的不确定性较高。如通用人工智能仍处于探索阶段,未来发展路径尚不明朗。此阶段不宜直接立法,应以伦理框架为指导,鼓励学术研究和行业讨论,为未来立法奠定理论基础。第二阶段为过高期望期,此阶段技术因市场追捧而被高度炒作,但实际应用仍存在较大局限。例如,生成式人工智能目前正处于该阶段,尽管展现出强大的生成能力,但仍存在“幻觉”、偏见等问题。此阶段可以通过部门规章、条例先行规范,不宜进行统一立法。第三阶段,泡沫破裂期,技术开始大规模应用,问题逐步暴露,市场认知趋于理性。例如,自动驾驶技术近年来频繁发生事故,反映出其在复杂交通环境下的局限性。此阶段可以启动专项立法,但法规应保持足够弹性,以适应技术的进一步演化。第四阶段,稳步爬升期和成熟期,此阶段技术模式趋于稳定,市场接受度提高,社会适配度增强,行业标准和治理共识基本形成。此时可推进统一立法,规范技术应用,同时鼓励技术的多元化发展路径,以确保产业健康发展。这一阶段划分能够帮助立法者避免在技术不成熟时过早立法,并确保在技术成熟后及时推出法规,治理行业乱象和社会风险。
2.“试错法”治理路径:探索“问题驱动—反馈修正”机制

人工智能技术的高度复杂性和快速演进性决定了法律治理不宜采取“一步到位”的整体规划模式,而应依托“试错法”与“渐进调整”机制,在实践中不断优化法律框架。依据波普尔的渐进社会工程理论,社会治理应遵循“猜测与反驳”的动态过程,通过小范围试验和持续反馈逐步完善制度,而非一次性制定覆盖所有可能场景的综合性法规。同理,人工智能作为高度动态的技术体系,其法律治理也应遵循“猜测—反驳”的基本思路,通过问题驱动、试点验证和反馈修正的基本路径,确保法律体系既能适应技术演进,又能及时应对潜在风险。这一思路与我国2017年《新一代人工智能发展规划》提出的人工智能立法“三步走”策略高度契合,先行开展立法研究,再进行立法试点,最终推进正式立法,以确保法律体系适应人工智能发展的现实需求。
“试错法”治理路径强调以现实问题为导向,通过试点探索合理的规制模式,并在反馈机制的基础上不断调整和优化。依据波普尔的渐进社会工程理论,社会治理应优先关注“消除痛苦”而非追求“最大幸福”,法律应以最小的社会成本解决已识别的核心问题,而非试图一次性制定覆盖所有潜在应用场景的法规。基于这一原则,人工智能治理应采取“消除痛苦”的底线思维策略,针对高风险应用进行法律监管,同时为低风险技术提供充分的市场自由,以保持法律的灵活性与适应性。
可以建立风险清单和对策清单的双重管理机制,以动态方式调整监管重点。风险清单要求人工智能企业或试点单位定期提交高风险应用报告。例如,深度伪造技术滥用、自动驾驶安全事故、生成式人工智能歧视性内容等,并进行实时更新,以确保监管机构能够精准识别技术风险。对策清单则要求企业针对已识别的高风险应用提出具体解决方案,这一机制的核心在于,在法律体系尚未完全成熟的情况下,通过灵活调整规则实现风险管控与技术发展的平衡,确保人工智能治理能够有效应对技术演进带来的挑战。
3.反身性法律体系:元规制与协同演进

图依布纳的反身性法理论强调,法律应当通过程序性框架促进社会系统的自我调适,而非直接干预。其核心逻辑在于,法律不应直接设定僵化的行为规则,而应构建灵活的治理框架,使各行业能够在法律框架下实现受规制的自我规制。这一理念与元规制理论高度契合,即法律不以行政命令的方式进行全面控制,而是提供制度性的引导和激励,促使行业内部制定和优化自身的治理规则。在高度复杂的社会技术环境中,监管机构难以针对所有可能的技术风险制定详尽规则,也无法全面监督所有主体,因此,法律应当鼓励技术领域的自我规制和动态适应能力,以提升治理的有效性与灵活性。
人工智能技术涉及多个子系统,每个系统都有自身的运作逻辑,因此法律不应直接设定所有细节规则,而应推动立法与软法协同发展,构建多元化的规范治理结构。例如,自动驾驶行业可通过行业协会制定安全标准,医疗人工智能领域可以依托行业技术指南设定模型可解释性要求,而法律的作用是提供总体框架,以确保行业规则符合社会价值与公共利益。这种模式既能避免立法过于刚性而限制技术创新,又能增强法律的适应性,使法律要求与行业发展保持动态协同。此外,人工智能治理应当将科技伦理嵌入技术开发过程中。例如,通过设立伦理义务化机制,要求人工智能企业在产品设计阶段履行记录义务与报告义务,使关键伦理要求成为技术开发的内生部分,而非外部强加的合规要求。
法律监管与技术发展应保持双向反馈与协同演进。一方面,法律监管需随技术演进及时调整,通过定期修订法规或引入灵活治理工具,提升法律的适应性;另一方面,技术开发者应在创新过程中主动承担合法性与合规性责任,将技术创新作为保障权利与履行社会责任的重要路径。以个人信息删除权为例,生成式人工智能的“记忆机制”使彻底删除个人信息面临挑战,开发者应积极探索“机器不学习”等新型“遗忘”技术,减少对个人信息的依赖。技术合规不仅是个体开发者的责任,更是整个行业的共同义务。通过自我规制与行业自律,主动设立控制机制,有助于建立监管者与被监管者之间的基本信任,在法律尚不完备的阶段实现风险的内部治理。

(二)
空间维度:分层治理与制度试验

人工智能技术的应用场景高度多元,不同行业面临的风险与法律需求存在显著差异,统一立法如果缺乏灵活性,可能导致法律适用上的“场景错配”问题。因此,人工智能治理应当采取分层治理模式,在国家级、行业级、地方级三个层面构建适应性法律框架,并结合制度试验、行业自律和监管沙盒等工具,实现精准治理。
1.国家级治理:战略引领与制度统筹

在人工智能分层治理体系中,国家层面应发挥战略引领与制度统筹的核心作用。鉴于人工智能具有跨行业、跨地域的广泛影响,国家层面宜采取“领域先行、制度试验”的路径,通过政策引导与规则预演,为统一立法积累经验、降低制度风险。一方面,可围绕自动驾驶、医疗人工智能、生成式人工智能等技术敏感度高、法律争议集中的重点领域,开展制度试验,聚焦权益归属、责任划分、算法可解释性等关键议题,探索规则设计与实施路径。另一方面,针对伦理治理、数据安全、算法歧视等具有普遍性的治理难题,推动制定专项法规或发布指导性规范,逐步构建起覆盖技术全生命周期的监管机制。通过明确监管边界、丰富治理手段、建立响应机制,为未来统一立法提供制度基础与技术支撑。
2.行业级治理:推动行业自律与标准制定

在统一立法难以全面覆盖的背景下,应充分发挥行业组织在技术协同与风险识别中的桥梁作用,通过制定细化的行业标准与场景化规则,弥补立法滞后与适配性不足的问题。人工智能广泛嵌入自动驾驶、智能医疗、金融科技等多个关键领域,各行业技术架构与风险特征差异显著,亟需构建基于应用场景的差异化治理机制。行业级治理的关键在于推动企业间形成技术共识,建立具有约束力的行业规范体系,并通过“软法”机制引导企业合规。这不仅有助于提升规则的灵活性与适应性,也能降低企业的合规成本,促进技术安全健康发展。
在具体实践中,应根据行业特性,制定专门规制方案或行业指引。例如,医疗人工智能可以明确责任认定与责任归属,强化安全性评估;金融人工智能可以引入算法审计与透明度机制,防范算法歧视与系统性风险;自动驾驶领域则可推广责任保险与数据留存制度,增强事后可追溯性与事故责任的分担能力。通过行业主导、政府引导的模式,实现法律体系的差异化嵌套与跨行业协同,提升整体治理体系的适配性与操作性。
3.地方级治理:探索试验先行与差异化监管

在分层治理体系中,地方层面应发挥制度先行和试验探索的功能,立足本地产业基础与技术发展阶段,推动差异化、适应性强的人工智能治理模式。应充分借鉴《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》等地方性立法成果,在重点领域开展局部先行试点,探索符合实际需求的治理路径。地方试点可采用“试点—反馈—修正”的动态机制,通过政策实验室等平台,系统评估法律规则的适用性与可操作性,并据此优化制度设计。
地方政府还可依托监管沙盒机制,在受控环境下引导企业测试前沿技术,并根据试点结果调整监管工具和执法策略。目前该模式已在我国部分行业落地。2022年,市场监管总局等五部门联合发布《关于试行汽车安全沙盒监管制度的通告》,在智能网联汽车领域初步构建了以“审慎包容、风险可控”为导向的规则试验机制。未来,地方政府可结合自身优势,在金融科技、智能制造、智慧医疗等领域设立更多监管沙盒,提升治理的精准性与适应性。从渐进社会工程理论视角出发,地方治理应构建可持续调整的制度反馈机制,使法律规则在不断试错中持续优化。这种自下而上的探索路径,既能增强制度对技术变化的适应能力,也为国家层面的顶层设计提供丰富实践基础和立法储备。

(三)
“统一立法”内涵与功能的再阐释

是否应当推进人工智能统一立法,归根结底取决于现实制度需求与立法的功能定位。然而,倘若缺乏对“统一立法”概念内涵与制度功能的清晰界定,即便在时间上节奏可控、空间上结构分层,仍难在多元规则的协调性与制度运行的稳定性之间实现有效统筹。
厘清“统一立法”的内涵,有必要区分“形式统一”与“实质统一”两种路径:前者强调通过一部法律集中整合各类人工智能技术及其应用场景,试图以一部法律承载规制、保障、激励与治理等多重功能,实现全面覆盖的顶层设计;后者则更注重立法协调、术语统一与原则明确,强调在跨领域、跨行业之间实现规则协同与价值一致。“形式统一”虽有系统集成优势,但易导致法律滞后、规制僵化、监管错配和创新受阻;而“实质统一”则强调制度兼容与结构开放,在统一原则的引领下构建“统中有分”的多层次治理体系。
因此,所谓“统一”,并不必然等同于法律载体的唯一化,也不意味着排斥专项立法或场景规则的存在。“统一立法”可以在多个法律框架之间,通过核心价值、术语体系与治理机制的协同,保持治理的一致性与体系性,同时为异质化场景、多样化风险和地方差异留出制度空间。这种思路不仅打破了“统一性”与“灵活性”之间的二元对立,也为人工智能立法提供了更具包容性与动态性的推进路径。在此基础上,与其追求法律形式上的统一覆盖,不如聚焦不同制度体系之间的实质协调,在价值共识基础上通过渐进推进、功能聚焦与结构弹性,推动原则统一、规则协调、治理多样的“多维动态”治理体系。
在“实质统一”的框架下,人工智能促进法可被视为一种具有代表性的制度实现形式,其统一性并非体现在形式上的法律集中,而是体现于价值共识的确立、概念术语的一致与制度机制的协同。第一,促进法通过确立人工智能发展的核心价值和基本原则,如安全、透明、公正、可控等,为多元治理提供统一的价值引导,避免不同领域间规制目标的冲突;第二,促进法通常对关键术语与技术边界作出统一规范,构建起跨部门、跨领域的立法和政策的共同概念基础;第三,促进法往往设置统筹协调机制,例如发展战略制定、伦理审查制度或监管协同平台,强化各治理要素之间的横向衔接与统筹协同。由此可见,促进法并不追求形式上的集中全面立法,却在实质功能上有助于推动治理体系的协同,为构建开放、灵活、协同的治理格局提供可行路径。
当前,已有部分国家以促进法的形式开展探索。例如,2025年日本通过《人工智能相关技术的研发及应用促进法》草案,旨在通过法律支持推动人工智能技术的研发与应用,提升国家科技竞争力。该法未设惩罚性条款,而是通过软性引导机制鼓励企业提升人工智能运用的安全性与透明度,体现出“以立法促发展”的政策取向。在中国,类似思路不仅体现在《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》等地方性立法中,也已延伸至数字领域的国家层面立法构想。部分学者主张制定《数字经济促进法》,十四届全国人大常委会立法规划已经将《数字经济促进法》列入“需要抓紧工作、条件成熟时提请审议的法律草案”之列,旨在通过法律制度为数字经济发展提供积极保障。
可见,人工智能立法并非单纯的技术治理问题,更关涉国家发展战略、制度协同能力与治理理念选择等多重因素。从制度功能定位出发,人工智能统一立法的真正价值在于为人工智能治理提供一个价值清晰、结构开放、机制灵活的基础性治理框架。人工智能法的出台时机,必须建立在对其制度边界与功能定位的双重反思基础之上。在人工智能技术尚处于高速演化的当下,人工智能立法不宜被视为包揽诸多政策目标的全面性制度方案,其制度设计应在实现原则统一的基础上,兼顾制度弹性与治理韧性,通过保留多元适配的制度空间与试错机制,实现法律治理与技术发展的良性互动与协同演进。
结语
《个人信息保护法》从2005年专家建议稿问世,到最终出台,经历将近16年的探索,完成了从互联网时代到大数据时代的法律适应过程。同理,面对人工智能技术的快速迭代,立法应被视为一项“循序渐进、灵活适配”的制度工程,不宜追求“一步到位”的“大而全”模式。具体而言,应构建“时间—空间”的双重弹性框架:在时间维度上,构建与技术发展相匹配的立法触发机制,避免立法超前或滞后;在空间维度上,采用差异化、分层次的治理架构,确保法规既具有原则统一性,又具备应对多样化应用场景的适应能力。这不仅是对技术发展规律的尊重,更是对法律理性与治理韧性的深刻把握。
在全球人工智能治理格局日益复杂的背景下,中国人工智能立法应避免走向欧盟过度强调“风险防控”与美国过度推崇“发展优先”的极端路径,而应立足自身产业基础与治理实践,构建符合中国国情的人工智能治理体系。同时,应积极参与国际规则制定,推动形成全球信任与共识,引导人工智能朝着安全、可控与普惠的方向稳健发展,在全球治理体系中贡献中国智慧、彰显中国担当。

往期精彩回顾
王涛|新质生产力驱动下的法治范式转型——以DeepSeek为例
房慧颖|数据要素赋能新质生产力的法治展开
黄忠顺|论债权人代位权的性质及其行使方式
赖成宇|共同个人信息的理论基础与保护路径
目录|《东方法学》2025年第3期(青年学者特刊2)
宋保振|论我国数字经济政策的法律化

上海市法学会官网
http://www.sls.org.cn