以人形机器人为代表的具身智能,进入到家庭等具有私密性、禁忌性的场景之中,在带来经济上与情感上的效益的同时,对使用者的人身与财产都可能形成比以往更重的隐忧。具身智能表现为人形机器人时,人类对其的共情程度会急剧增高,而共情正是责任主体地位产生的道德基础。当人类对人形机器人的亲和力高到一定程度产生共情,是否有必要赋予人形机器人主体地位。“智能”引发的归责漏洞还包括“损害”的含义模糊、因果关系难以确认、责任标准动摇。在涉具身智能的刑事案件中,归责路径可以从不同的方面展开。首先,具身智能本身难以成为归责主体。在多方主体对自身提供的要素部分进行了共同的或协商的市场营销,且技术上有具备排他性的依赖时,可以考虑成立共同过失犯罪。其次,不应该例外地在具身智能案件中修改因果关系理论而采取概率因果关系;相反,可以考虑针对聚合个人信息的生成行为增设新型危险犯。最后,应利用信赖原则对生产商与使用者之间的注意义务进行分配。具身智能是指将人工智能融入机器人等物理实体,赋予它们感知、学习和与环境动态交互的能力。罗德尼·布鲁克斯(Rodney Brooks,现代机器人之父)在1991年提出“行为主义智能”,即智能行为可以直接从自主机器与其环境的简单物理交互中产生,而这种交互不依赖于预先设定的复杂算法。琳达·史密斯(Linda Smith)在2005年提出的“具身假说”是从认知科学的角度对智能的理解提出了新的视角。根据“具身假说”,我们的思维、感知能力以及其他各种能力的发展,都是人们通过身体与环境的持续互动而逐渐形成的。这种观点强调,身体不仅是感知世界的工具,更是影响和塑造认知结构的主体。从这种观点来看,具身智能并不是简单的“将人工智能置放于一个物理实体之上”。GPT-4、BERT、CLIP和DALL-E等基础模型增强了机器人解读视觉和文本信息的能力,显著提高了机器人的感知能力。这些模型使机器人能够通过理解上下文、物体和指令来执行复杂的任务,更接近于人机交互。尽管这些模型提供了强大的信息处理能力,使得具身智能能够在没有预设特定逻辑的情况下处理复杂场景,但它们本身并没有解决机器人如何从物理环境中持续学习和适应的问题。目前大部分深度学习模型训练时使用的数据来自互联网(Internet AI),而并非来自现实世界的第一人称人类视角,这样训练得到的模型是旁观型的,它只能学习到数据中的固定模式并将其映射到标签层,并不能在真实世界中直接进行学习,也不能对真实世界作出直接影响。换言之,具身智能涉及的研究领域,包括并超出人工智能本身,有着独立的研究价值。具身智能产品的应用场景有着B端与C端之分。B端包括工业场景、仓储物流场景以及制造业场景;而C端则特指走进千家万户的人形机器人。人形机器人的类人形态,是具身智能的最佳载体。按照《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》总体部署,落实《“十四五”机器人产业发展规划》重点任务,加快推进机器人应用拓展,2023年1月18日,工业和信息化部等十七部门印发《“机器人+”应用行动实施方案》;2023年10月,工信部发布《人形机器人创新发展指导意见》。在世界人工智能大会(WAIC2024)中,青龙、智元-远征A2、宇树-H1、傅立叶-GR-1、星动纪元-XBot-L、乐聚-夸父4代等一众人形机器人作为代表性产品被展出。同年,世界人工智能大会法治论坛在上海举办。论坛邀请全球知名的法律界及人工智能领域的权威专家和学者就人形机器人带来的隐私侵权、责任困境、伦理失范等新挑战进行探讨,并发布了《人形机器人治理导则》和《世界人工智能法治蓝皮书(2024)》。2024年也因此被称为“具身智能元年”。然而,传统机器人与人工智能侵权的案件并不罕见。微软的聊天机器人Tay在与种族主义者进行对话之后,学习并发出了呼吁种族灭绝的冒犯性评论。在德国的大众汽车工厂中,工人B过早地开启了机器,导致未被放置在安全笼中的一个机器人手臂抓起工人A并将其向金属板挤压,A最终死亡。在阿沙芬堡,驾驶带有辅助系统汽车的司机突然中风并失去意识。他及时向右扭转方向盘试图将车停在路边,然而辅助系统又将汽车重新驶回马路上,撞死了两名行人。2024年1月国务院办公厅发布了《关于发展银发经济增进老年人福祉的意见》,推进服务机器人等智能设备在居家、社区、机构等养老场景集成应用。人形机器人将会以陪伴型的服务机器人、社交机器人的身份被重点发展。可以预想的是,当人形机器人进入到家庭等具有私密性、禁忌性的场景之中,在带来经济上与情感上的效益的同时,对使用者的人身与财产都可能形成比以往更重的隐忧。正是在这样的技术创新背景之下,本文试图以人形机器人作为具身智能的典型情形,探讨相关案件的刑法归责问题。一种观点认为,人形机器人不过是人工智能的实体化,对人工智能刑事责任的讨论可以原封不动地照搬到人形机器人甚至是所有具身智能上。但本文认为,“具身”这一要素的存在,不仅会将人工智能带入下一个发展阶段,也会将人工智能之刑事责任问题带入下一个发展阶段。所谓“具身”,是指以各类机械装置作为其存在的实体,将各项程序功能具体化为各类可执行指令的机械装置。而典型的热议情形——人形机器人,则是以人类的躯体作为其机械模拟的标准的一种具身智能。这种“具身”,不仅会使得人工智能进入除了工业领域之外得更为私密的家庭领域,更会引发责任主体问题的全新思考。
“具身”一词并不是随着具身智能产品出现而创造的词汇。“具身性”(embodiment)本是一个在认知哲学领域内使用的术语,其主要含义是指:人类认知的诸多特征都在诸多方面为人类的生物学意义上的“身体组织”所塑造,而不是某种与身体绝缘的笛卡尔式的精神实体的衍生物。也就是说,人类对世界万物的认知,并不是形而上的抽象式理解,而是必须以肉身为媒介进行整理加工的主观化理解。同时,这种理解亦不能脱离身体的任一部分,单个器官无法对外部信息进行有效的整合。比如,针对“溪水流过”这一现象,仅有听觉而没有视觉固然可以捕捉溪流的声音,却无法对“流过”进行准确理解。这也就说明,人类的认知实际上依赖的是“通感”,通感是人类感知的基本方式。通感能力是生命适应环境的一种能力,这种适应能力也是破解“意识难”问题的一个重要手段。这种对“具身与认知”之间关系的理解,不仅可以运用在人类之上,也可以运用在人形机器人之上。一直以来,人工智能的自主学习能力是业界所关注的重点,如何由“弱人工智能”跃至“强人工智能”的关键即在于,人工智能在脱离人类控制后可以习得并产出至何种程度。本文认为,“强人工智能”的诞生无法离开“具身”,人形机器人极有可能是相当长一段时间内人工智能发展的“终极形态”。第一,具身是认知的前提,不具备仿人类躯体的人工智能无法达到与人类相当的认知水平。人工智能学习的方式包括两种:一是自上而下地由操作者输入代码;二是被投放市场后,自下而上地从环境中进行抓取、计算与再学习。后者才是人工智能深度学习的主要方式。而对于具身智能尤其是人形机器人来说,深度学习的对象主要是人类,深度学习的主要方式是人机交互。如果双方的身体结构差异巨大,相当于二者使用的是不同的话语体系,这种不同话语体系之间的转化将会耗费巨大的成本。假设当下设计出的具身智能在外形上仿制的是某种仅具有迷你身躯的昆虫,那么当人类对其发出指令“拿起面前的笔记本电脑”,其极有可能无法理解——在其理解中比自己身躯巨大的物体只能使用动词“爬过”“走过”“穿过”“飞过”,而不是“拿起”。因此,想要人工智能准确理解人类的指令,脱离操作者进行真正的人机交互和深度学习,最佳方式应是让其拥有与人类极度相似的身躯。第二,自人工智能诞生以来,从科幻作品中的“阿西莫夫三定律”,到如今人工智能时代初始各国纷纷发布相关伦理规则,均可见人类对人工智能所持的谨慎与怀疑态度。为了使人工智能与人类始终有着方向一致的目标,不脱离轨道对人类进行侵害,必须在对智能体进行设计与制造时对其进行自上而下的“规则附着”。同理,让具身智能理解禁忌规范的真正含义,也需要其具备与规范创设者同样的躯体。“为了防止种种对人类不利的情况出现,机器伦理学家就必须预先阻止‘完整意义上的语义智能’与‘与人类的时空尺度迥然不同的身体构造’这两项因素在同一个机器人身上的结合”。如果具身智能的身躯与人类差异巨大,那么它不仅不能理解人类对其发出的命令规范,也一定难以理解人类对其发出的禁止规范。“太聪明的人工智能并不构成对人类的威胁。且毋宁说,太聪明的人工智能与超强的外围硬件设备的恒久组合形式,才会构成对人类的威胁,因为与人类迥异的身体图式本身就会塑造出一个与人类不同的语义网络,并由此使人类的传统道德规范很难附着于其上”。
具身智能表现为人形机器人时,人类对其的共情程度会急剧增高,而共情正是责任主体地位产生的道德基础。这也就是为什么,在2024世界人工智能大会法治论坛上发布的《人形机器人治理导则》第27条规定,构建人形机器人用户安全风险教育机制,推广人形机器人技术应用的通识教育,对齐全社会对人形机器人的基本认知和合理使用技能,避免用户出现不适当的情感依赖,有效减少人形机器人用户的误用滥用。在20世纪70年代,东京工业大学机器人学教授森正弘(Masahiro Mori)提出了机器人拟人程度与人类好感度关系变化的“恐怖谷效应”。机器人诞生之初最先被投放至工业领域,当时的机器人没有脸或腿,只是伸展、收缩和旋转手臂。机器人必须执行与人类工厂工人类似的功能,但它们看起来是否相似并不重要。因此,鉴于它们与人类缺乏相似之处,一般来说,人们对它们几乎没有任何亲和力。当机器人的拟人化程度逐渐升高,一开始人类的亲和力也会缓慢随之升高;但是当拟人化程度高到某个特定的数值,人类对它们的亲和力非但没有继续升高,反而是骤然下降到最低点。这种好感度和亲和力的变化曲线就被森正弘称之为“恐怖谷”。此外,当机器人不仅在外观上具有拟人性,且会像人类一样运动时,好感度降低的曲线将会变得更加陡峭,也即好感度下降得更快,人类对此产生的不安感更加强烈。这种不安感是人类的一种本能,可以保护我们免受近端而不是远端的危险源的伤害。近端的危险源是尸体、不同物种的成员以及我们可以近距离接触的其他实体。远端危险源包括暴风雨和洪水等自然灾害。恐怖谷理论启发了人形机器人的制造商:机器人想要在市场上更受欢迎,在拟人化程度上必须达到一个均衡的点——既不会完全不像人类而失去人形机器人的效用,也不能太像人类而引发消费者的恐慌。也就是说,恐怖谷理论曲线中存在两个峰值,而制造商需要确认并追求的是第一个峰值的确切样态。当人形机器人的拟人化程度处于这一点时,人类消费者能够在不恐惧机器人的情况下,与它进行最高效的沟通。这是未来人形机器人在拟人化程度的发展方向。但与此同时,它又会带来刑法归责上的第一个问题——当人类对人形机器人的亲和力高到一定程度产生共情,是否有必要赋予人形机器人主体地位呢?具体而言,这个问题是如此诞生的——在旧有的议题之中,关于是否要赋予人工智能法律主体地位的争论,反对观点一般有如下理由:第一,人工智能无法具备人类意识,与原有的法律主体存在巨大的生理构造与社会地位上的差异;第二,承接第一点,人工智能无法理解法规范的真正含义,法规范无法对其起到威慑及预防作用;第三,同时,由于第一点和第二点的存在,刑法或其他法律对人工智能进行惩罚,无法对其他国民起到一般预防的作用。但是,当具身智能体现为拟人化并具有最高好感度的人形机器人时,上述论断可能会被动摇:首先,具备“通感”的人形机器人,能够理解人类语境的真正含义并与人类进行低成本的交流,难以认为此时的人形机器人不具备意识。机器的身体及各感知器作为一个统一体,以整体的通感感知方式把握世界和他人,形成一个多模态的和感知—表达一体的感知场与行动场,从而实现人机之间的顺畅交互和机器自我意识的涌现。人与机器持续交互的感知体验作为机器自我意识生成的可能,至少是一种弱人工意识的实现。其次,共情是责任产生的道德基础,人形机器人具身进一步激发了人类承认人形机器人主体资格的想象。因为规范接收者需要确认所有的道德主体都能够准确理解契约的要求,在承担不利后果时能够感知痛苦;当一部分规范接收者发现另一部分主体无法理解契约含义,也无法从不利后果中感知痛苦,这部分规范接收者容易认为此规范因无法约束所有主体而处于失灵状态。当人形机器人具备拟人性、高亲和力以及与人类交流情感的能力,我们是否有十足的把握自己不会与机器人产生共情?一旦共情存在,责任的基础似乎已经形成。具身智能引发的第二个刑法归责上的思考,来源于它的“智能”。在人工智能尚未存在实体的时代已经存在类似的归责问题,而具身智能体现为人形机器人时,会将此类问题带到人类面前。
具身智能的使用过程中可能会给他人甚至是消费者本身造成损害,但是,这种损害应当如何认定、是否有必要扩张刑法上对“损害”的理解,是本部分即将要讨论的问题。一方面,即便是面对指令输入者的恶意指令,基于具身智能的学习能力,其很有可能会修正恶意指令使他人“转危为安”。此时,“输入恶意指令”这种行为能否被视为刑法上的危害行为?另一方面,人工智能造成的损害类型可能不被包括在现有责任规则所公认的损害类别中。以进入家庭的人形机器人为例,其相比工厂的机器人更有可能接触到民众的各方面生物信息数据。我国的数据安全法从对数据的静态保存和动态利用的角度进行区分,将数据安全区分为数据控制安全和数据利用安全。前者由数据本身的保密性、完整性和可用性构成,对数据的泄露、窃取、篡改、毁损(包括删除、增加、丢失等)会损害数据控制安全;后者则重在防范数据滥用行为,即确保数据大规模流动、关联、聚合、挖掘、分析、使用过程中安全风险的可控性。从这个角度看,我国刑法似乎并未对数据安全进行整体保护——从数据控制安全的角度来看,过失泄漏个人信息行为和非法篡改、毁损个人信息行为被排除在外;从数据利用安全的角度来看,“合法获取、不当滥用”个人信息问题受到忽视,滥用个人信息行为尚未被纳入侵犯公民个人信息罪的罪状。
涉具身智能刑事案件的因果关系也有其特殊之处,其来源于具身智能的“涌现”能力以及多重主体。其一,具身智能的“涌现”能力,使得此类案件的刑法因果链条较传统刑事案件相对隐蔽。“涌现”作为科学术语,最早由著名物理学家菲利普·安德森于1972年使用。涌现是一种在较小模型中不会出现但会出现在较大模型中的现象。随着人工智能、大数据等配套技术的迅猛发展,机器人也逐渐具备了一定应变能力,可以根据环境随机采取“自主行动”,这种有别于人类的“自主行动”,就是涌现。涌现意味着当人形机器人与外部环境互动时,人类并不能对其行为的导向和结果作出精准预测。具身智能的“涌现”能力可能会引发刑法因果关系上的两个难题:(1)人工智能技术的新颖之处在于,它们具有产生不由输入预先决定的输出的潜力,这构成了自主决策。能够脱离人类控制进行自主决策,正是我们研究设计人工智能的初衷。但这种自主决策也就意味着,决策一旦造成损害后果,损害后果很有可能无法与操控者的行为建立因果联系。(2)在过失犯罪之中,对行为人结果回避义务的施加,要求以行为人对损害结果具备一定程度的预见可能性为前提。无论是人类使用者,还是开发算法的程序员,都难以完全理解算法背后的每一项自动化决策。这并非人形机器人所独有,而是广泛存在于机器学习算法之中的共同挑战。以知名机器学习算法AlphaGo为例,它在2017年接连击败了人类顶尖棋手。然而,即使是创造AlphaGo的工程师们也无法针对其每一步棋的奥妙给出解释——试想,假如可以解释,那么这些工程师早已称霸棋坛。换言之,如何确定行为人对自动化决策造成的损害后果具备预见可能性呢?又或者说,是否应当调整对预见可能性程度的要求?其二,涉具身智能刑事案件往往牵涉到众多环节行为主体,这是以往传统刑事案件少见的。人形机器人的硬件制造者、软件开发者(尤其是智能系统的编程者)、销售者、所有人或使用者,都可能是潜在的归责主体。仅考虑算法本身,就可能牵涉及算法模型开发与训练者,数据收集、控制与处理者,产品制造者,软件所有人等众多参与主体。当一个刑事案件中存在数个行为主体时,就有可能产生多因一果的难题。人形机器人的硬件部分(如传感器、执行器等)出现故障,软件也可能出现故障(程序错误、配置不当、资源冲突或兼容性问题)。当在某些涉具身智能的案件之中,只有硬件故障或者软件故障都不会产生危害结果,但是当二者同时存在时,危害结果发生了——此为我们所理解的重叠的因果关系。又比如在另一些案件中,硬件故障或软件故障都足以独立导致危害结果的发生,而二者同时出现时,便涉及二重因果关系的问题。再如,软件发生故障后,机器人依照错误的指令伤害人类的过程中,硬件发生了更加严重的故障,导致最终危害结果的发生,便有可能涉及因果关系的回溯禁止。
正是因为具身智能针对的都是关涉国计民生的领域,其具备涌现能力,且此类案件牵涉的行为主体众多,难以确定归责主体以及各责任主体的责任大小,因此,关于人工智能侵权类案件的责任标准亦一直是学界热议的话题。具体到刑事案件,问题主要出在当具身智能基于自身的涌现能力而作出的行为造成损害结果,且该结果似乎难以为某位甚至是所有的行为主体所预见,此时应当追究谁的刑事责任?以是否赋予具身智能主体身份为区分依据,责任标准大致上有以下两种方案:方案一,承认具身智能可以成为刑法上的主体。持此类观点的学者,一部分认为既然单位也可以成为刑法中的主体(国外多称法人主体),那么使用同样的拟制方法,也可以将人工智能拟制为刑法主体。“刑法的重要社会功能就是维持秩序,威胁社会秩序的有可能是人类、法人甚至是AI实体…AI实体与法人一样不具备灵魂,但都在人类社会中扮演越来越重要的角色,因此有必要将AI实体纳入刑事责任范围”。另一部分则认为,可以在刑法中增设针对人工智能的惩罚措施,这种惩罚措施和民事责任的赔偿责任相类似。例如,通过立法规定机器人的使用者有给机器人购买保险的义务,以应对机器人必须承担损害义务的情形。也可以通过立法规定,机器人的使用者必须为机器人开设账户并预存一定数额的款项用以支付可能产生的机器人损害赔偿义务。方案二,不承认具身智能可以成为刑法上的主体,只追究传统刑事责任主体(自然人和单位)的责任。在典型疑难情形中,行为人往往不具备直接故意,因此是沿用传统刑法理论中的过失责任还是承认刑法中也可以存在适用严格责任的情形,就成了问题。持过失责任观点的学者提出了“自然可能结果理论”,即如果人工智能造成的损害结果属于行为人行为的“自然且可能”的结果。而在自动驾驶中,亦有学者认为,过失犯中因果关系难以认定、预见可能性指向的内容不够明确等问题并不仅仅是自动驾驶技术出现之后才显现的,在医疗事故、食品安全等领域也一直存在。因此,以自动驾驶技术带来的算法黑箱等问题为理由,去突破传统的过失犯理论,降低因果关系的证明标准、放弃过失犯中的主观预见可能性或者结果等要素的做法,其实是过于夸大了自动驾驶技术对过失犯理论提出的挑战。相反,反对观点认为过失责任在人工智能时代显得过于累赘,而应采用严格责任。部分学者认为可以将产品责任、环境污染责任、高度危险责任以及饲养动物损害责任领域的严格责任或危险责任扩展至人工智能或算法侵害领域,以解决算法黑箱带来的主观过错和因果关系难题。严格责任不要求行为人对危害结果有过错,仅考察其行为是否符合一定的标准。当下,我们正处于社会理论家乌尔里希·贝克(Ulrich Beck)所称的“风险社会”,而刑法理论也随之衍生出与之相关的“风险刑法理论”。纵然该理论存在诸多争议,但不可否认的是,刑法在控制社会风险的活动中扮演日益积极的角色。这一命题暗含着对刑法归责路径调整的两点提示:一方面,在对归责路径进行调整时,不能仅关注个案的正义,更要关注某一调整对案外人的影响。也即,“如何设置归责路径,包括确定责任主体、责任形式、责任标准,能够使得再次发生同种损害的概率降到最低”这一问题,成为考虑的重点。此为“运用刑法来控制风险”。另一方面,不能抛弃刑法“保障法”的角色,在前置法没有相关规定时,刑法不宜过早介入以影响技术发展;在具体问题的标准上(如证明标准、预见可能性等),也不宜作与前置法完全相同的处理。此为“不能让刑罚的滥用成为新的社会风险”。
从自然主义的角度看,如若创设新的刑事责任主体,那么新主体与旧有主体(单位和自然人)之间必定存在结构的近似性。一方面,具身智能与单位主体并不具备相似性。在单位责任理论中,存在着个人模式与组织体模式两种流派。个人模式,相当于承认企业代表人与企业的高度重合性,将代表人的行为视作单位的行为。而在组织体模式中,虽然承认了单位主体相对于自然人的独立性,但是同时也认为“单位具有自己独特的制度特征、文化气质和环境氛围,这些要素能够对单位中的自然人的思想和行为产生影响。单位犯罪的认定和处罚,首先应考虑单位组成人员在业务活动中实施的侵害法益行为或结果,其次必须甄别作为单位‘手足’的自然人的行为是否体现单位意思”。也就是说,自然人的行为会被视作受单位主体影响的产物。然而,如果想要承认具身智能的责任主体地位,我们既不可能承认自然人与具身智能的重合,也不可能考虑能否通过自然人的行为来认定具身智能的行为。另一方面,前文所述的恐怖谷效应会造成的影响是,虽然在技术发展上,未来完全可能生产出拟人化程度极高的、具备意识的人形机器人;但是,这种机器人会因恐怖谷效应无法获取人类消费者的青睐,而最终被生产商淘汰。具身智能的批量产出形态应是“不完全仿人”的人性机器人。从规范主义的角度看,我们完全没有必要,也不可能赋予具身智能主体地位。首先需要明确的是,并不是因为“行为”“责任”“归责”“主体”“自由意志”等术语的原有含义无法涵括具身智能的情形,而将其拒之门外。任何形式的语言本质主义——即认为概念存在确定且始终如一的内涵的观点——都与现代的语言研究和学术理论不符。想象一下,从因果行为论到社会行为论、条件说因果关系到客观归责理论、自然人主体到单位主体的转变,就可以轻而易举地明白,用某种概念的既有含义对新生事物进行否定,很有可能是徒劳的。真正能在规范上拒绝具身智能成为责任主体的理由是如下两点:第一,规范的设置应当能够被违反。第二,规范的设置应当能被遵守。而这两点关于规范的要求却不可能同时存在于同一发展阶段的具身智能当中。如果我们生产的具身智能尚达不到完全自主的程度,会出现局面是:我们针对机器人设置了禁止规范后,机器人阅读并理解该规范的含义,完全没有出现触犯规范的行为。而法规范之所以具有效力,正是因为法规范可以被违反。如果我们不对技术发展作出控制,任由具身智能达到自主决策的程度,很难想象该智能体只在“为人类服务”时自主,而在“为自己谋福利”时却依然受控。此时可能出现的局面则是:为什么被赋予理性自我决定能力的人工“超级智能”偏偏要臣服于“缺陷物种”人类所创造的现行刑法?对人类来说,决定性的问题可能是,文明开化的自主机器将赋予人类什么样的道德地位和法律地位。具身智能更倾向于重塑法律而不是遵守法律。
涉具身智能刑事案件往往牵涉到多元主体,而机器学习算法的自主性特征令人类对算法决策过程的控制减弱,找到风险控制方本身就面临技术可行性难题,且各个主体间又缺少对具体情境下的意思联络,是故,既难以找出风险控制方以追究单方的刑事责任,也难以认定多方主体间构成共同犯罪。然而,在具身智能产业愈发成熟的未来,可以考虑创设集合责任主体。该概念源于2020年10月,欧洲议会通过的《欧洲议会关于欧盟委员会就人工智能民事责任制度建议的决议》(下称《人工智能民事责任决议》)。该决议认为,“如果两个或两个以上的主体在合同或类似的基础上合作提供商业和技术的不同要素,并且受害者可以证明至少有一个要素以引发责任的方式造成了损害,但无法确定是哪个要素,则所有潜在的侵权者都应对受害者承担连带责任”。这种“在合同或类似的基础上合作”的多方主体,会被整体理解为“一个商业和技术单位”,并对损害承担连带责任。举例来说,A制造商生产的智能报警系统被添加到B生产的智能家居环境中,并由C设置和安装。该智能家居中枢在供应商D开发的生态系统上运行。A、B和D通过复杂的合同安排将各自提供的相关组件的互操作性和相关营销联系在一起。如果可以证明故障不是由C(或外部原因)造成的,但如果仍不清楚A、B和D之间的情况,房主应该可以联合起诉A、B和D。他们中的任何一方都可以在诉讼中证明不是商业和技术单位造成的故障,但如果不能证明,房主可以要求他们连带承担责任。业主可以要求他们承担连带责任。(例一)如此一来,既可以部分性地解决难以确认归责主体的问题,也可以避免某些主体主动地“切割”自己的风险而回避责任的承担。必须注意的是,依据《人工智能民事责任决议》,这种集合责任主体的认定是十分严格的:(1)多方必须对自身提供的要素部分进行了共同的或协商的市场营销;(2)多方在技术上有一定程度的相互依存和相互操作;(3)且多方的结合是特殊的、排他的。与例一相反,如下情形可能会有不同的结论:网络提供商E也可能因为网络连接临时中断而导致问题。但是,智能家居设备通常只需要网络连接,而不需要特定网络提供商的网络连接。因此,网络提供商E就难以被认为与A、B、D之间形成一个商业和技术单位。(例二)这种关于智能体引发侵害而考虑集合责任的做法,启发我们反思刑法共同过失责任的认定。当前通说观点认为,根据刑法第25条的规定,我国刑法只承认了共同故意犯罪。但是,共同过失犯罪并不是在理论构造上的不可能,仅是一国刑法是否予以承认问题。共同犯罪的现象与共同犯罪的立法之间并非唯一对应关系,不同的立法模式可以有不同的处理方式,而共同犯罪的本质划定了共同犯罪的立法极限。共犯的本质是行为的共同而不是犯罪的共同,是一方主体利用他方主体的行为扩大了自身行为的影响力。依此观点,上述所提的民法中的集合责任主体被视作过失共犯并不存在理论上的障碍。仍以例一为例进行说明,智能家居生产商B选择了与智能报警系统制造商A、生态系统供应商D进行合作。B所生产的这款智能家居,在报警系统与生态系统的选择上具备一定的排他性(替换A、D,产出的会是另一款截然不同的智能家居产品),且B对A、D的性能、操作以及可能存在的问题存在与A、D同等程度的理解,同时多方进行了共同的市场营销。此时,如果这款智能家居产品在实际使用中损害了消费者的权益,现有的证据和技术却不能证明究竟是A、B、D中哪一方所提供的要素出现缺陷,三方应当同时对此损害承担刑事责任,属于过失共犯。
在刑法中运用共同过失犯罪理论对民法中的集合责任主体追究刑事责任,可以解决一部分涉具身智能刑事案件的归责难题;但是,这种做法却不能处理如下情形:当A、B、D并不符合形成集合责任主体的要求,而是各自独立的责任主体,那么因果关系的难题就依旧存在——当因为算法黑箱的存在,输入端与输出端之间存在“技术真空”,导致损害无法溯源至某个具体的主体时,应当如何归责?从现有文献来看,主要存在两种理论流派:1.在涉具身智能刑事案件中转用概率因果关系;2.增设新型危险犯。概率因果关系理论通常包括风险升高理论和疫学因果关系理论。无论是过失犯还是故意犯,都需要考虑结果回避可能性。亦即,只有当我们实施符合要求的行为能够避免危害结果的发生,规范才能对我们提出行为要求。此处,关于“能够避免”便存在着两种因果关系学说——“确定避免理论”与“风险升高理论”。前者为传统学说,认为合义务行为能够100%避免危害结果发生时,因果关系才能确认存在。后者则认为,即便在具体案件中不能判定合义务行为能够近乎肯定避免结果的发生,但是,只要行为人遵守注意规范的行为相较于违反注意规范的行为可以降低结果发生的风险,便可成立过失。疫学因果关系亦是属于概率因果关系的一种。部分学者主张在自动驾驶领域适用风险升高理论,“譬如在实际路况并不适合启用自动驾驶系统,而需要自然人驾驶者介入操控的情形下,自然人驾驶者并未介入因而引发乘客死亡的交通事故。根据事后查明的事实,如果自然人驾驶者及时操纵汽车,虽不能确定避免结果发生,但只要该概率在50%以上,即可认为行为人违反注意义务的行为制造并实现了法不允许之危险,应对其进行过失归责”。“只要实施了合乎义务的行为有可能避免结果的发生,这种程度的结果回避可能性就足以在义务违反与结果之间确立起归责所需的规范关联,除非实施合义务的行为根本不可能避免结果的发生。”然而,风险升高理论自身存在无法释疑的难题,而具身智能等新兴技术带来的认知空白并不能就此绕开难题。首先,风险升高理论无法回应来自罪刑法定原则的诘难。罪刑法定原则要求刑事司法做到“存疑时有利于被告人”。因法律适用永远体现着司法者的主观意志,通说认为这一下位规则适用于“事实存疑时”而不适用于“法律适用存疑时”。这一区分意味着应尽量区分“事实认定”与“法律适用”,且法律的适用不能违背基本的法理。结果回避可能性的绝对性追求,体现着罪刑法定原则的内核:如果不能确认行为损害他者的利益,就不能通过刑罚恶害来限缩行动自由。风险升高理论无法满足这种绝对性追求。将因果关系的确定性降低为盖然性标准,实际上是将因果关系事实存疑的情形全部转移至法律适用的情形,从事实上抹杀了因果关系事实存疑的可能。其次,在刑法认定因果关系时采取风险升高理论,相当于在证明标准上放弃了“排除合理怀疑”标准而转采“高度盖然性”标准,无视了刑法和民法两个规范目的不同的部门法之间在证明标准上的区别。刑法的功能是惩罚犯罪,保护国家安全、公民人身权利等法益;民法的功能是保护民事主体的合法权益,调整平等主体之间的民事关系。例如,针对高空抛物行为,如果找不到具体的行为人,则无法认定相关的行为构成犯罪,但依据民法典的规定,在无法确定具体的行为人时,相关主体仍然需要对受害人进行适当补偿。最后,风险升高理论在“斩断”行为与结果之间的绝对性联系后,相当于只考察了行为的危害性大小(造成灾害结果的可能性),从而将所有的实害犯变为了危险犯。尤其是主张只在人工智能的部分案件中适用风险升高理论,而在其他传统案件中适用“确定避免理论”的观点,会导致部分罪名(如生产、销售不符合标准的罪、重大责任事故罪)时而是实害犯、时而是危险犯的奇怪现象。与此同时,针对风险升高理论的批评启发了对此类犯罪进行归责的另外一种思路——增设新型的危险犯。与直接转采风险升高理论相比,增设危险犯需要经过严密的立法论证,且危险犯的法定刑也较实害犯较低。人形机器人作为具身智能的典型样态,适用的场景多为提供家务劳动、医疗护理、教育辅导、情绪疗愈等。而在此过程中,具身智能相较于无实体人工智能或非智能机器人,能够更加全面、综合地搜集使用者的敏感个人信息,包括特定身份资料、生物识别特征(人脸、步态、指纹、虹膜、声纹、DNA等)、健康生理状况等。人形机器人对于使用者的私密空间、私密信息与私密活动的掌控是前所未有的。在人机实时交互的情形下,传统的“机审+人审”无法及时展开,这就可能为不法分子利用聚合分析技术损害使用者的利益。比如,人形机器人的行动控制能力需要通过视频演示和人类示范联合训练,不法分子非法获取具身智能的训练数据后,只需使用清晰的面部图像、语音、动作等,就可以利用深度学习、虚拟现实等深度合成类算法制作虚假色情视频、实施AI换脸拟声电信诈骗或者破解人脸识别认证等。当前学界针对刑法对数据安全的保护,提倡的是分类分级保护,但针对公民个人信息,实体法上表现的仅为一定程度的分类分级保护。数据分类是以数据的属性、特征等为标准,将具有相同属性、特征的数据进行划分和归类;数据分级是以数据所承载的法益大小,或者说数据一旦被侵害所产生危害后果的大小为标准,对数据予以不同层级的保护。我国刑法以信息是否具备可识别性为区分标准,将信息区分为个人信息与非个人信息,并针对个人信息设置了侵犯公民个人信息罪。同时,相关司法解释进一步细化公民个人信息的分级标准,将公民个人信息分为高度敏感个人信息、低度敏感个人信息、非敏感个人信息,针对不同敏感程度的个人信息设置了不同的入罪标准。“行踪轨迹信息、通信内容、征信信息、财产信息”属于高度敏感个人信息,“住宿信息、通信记录、健康生理信息、交易信息”属于低度敏感个人信息,其他则属于非敏感个人信息。从而在刑事司法的角度,对公民个人信息的刑法保护作了分级处理。但是,当具身智能直接深入到个人信息的获取阶段时,上述分类分级标准是否依然值得坚持,有待考察。具身智能带来的是新型的数据安全风险,主要是多源大量数据聚合和分析可能带来的安全风险。数据聚合分析通过对积累汇聚的数据进行搜索、比对、关联等分析,能挖掘出数据集背后隐藏的安全情报甚至涉密信息。这说明某些之前认为无关紧要的数据在聚合分析技术条件下也会成为高风险敏感数据。比如,单独的身高、体重、体温等信息可能属于原有分级中的低度敏感个人信息,但是当使用聚合分析技术完整收集公民的各项生物信息后所得出的新数据,在可能造成的法益侵害程度上却可能不比属于高度敏感个人信息的“行踪轨迹信息”要低。针对这种聚合型的数据犯罪,本文认为有必要增设危险犯予以特殊规制。具体而言,对进行聚合分析的个人信息(下称“聚合个人信息”),存在生成、传播、利用三个不同递进阶段的行为,针对聚合个人信息的生成行为,有必要增设新型危险犯予以保护。传播和利用行为固然可以被理解成侵犯公民个人信息罪中的“出售或提供”,生成行为却无法完全被解释成侵犯公民个人信息罪中的“获取”。侵犯公民个人信息罪中的“获取”以“非法”为前提,而公民的知情同意阻却了非法要件的满足。个人信息保护法第44条规定,公民对于个人信息的处理享有知情权、决定权,具体包括查阅、复制、更正、补充、删除等个人信息在存储、流通和使用中的各项权益。但是,侵犯公民个人信息罪地提供、出售、非法获取的构成要件行为,无涉个人信息的处理方式和使用目的,只是破坏了个人信息主体所掌控的个人信息“不被他人知悉”的状态。换言之,“合法获取后进行聚合分析”的生成行为,在当前的语境下是无法构成侵犯公民个人信息罪的。将生成行为规定为危险犯进而纳入刑法规制范围,能够达到双重效果:一方面,在无法证明上游获取个人信息行为的非法性的时候,处罚生成聚合个人信息可以弥补证据收集困难而造成的处罚漏洞;另一方面,由于聚合个人信息的全面性和综合性,聚合个人信息的传播和利用行为给公民个人造成的危害性远高于当前所规定的高度敏感个人信息,对其是下游数据犯罪的预备行为,将其进行“预备行为正犯化”的处理,有利于对公民个人信息进行周延保护。
在确定可以适用集合责任和危险责任的创新情形之后,余下涉具身智能刑事案件在责任主体和适用罪名上并无特殊之处(责任主体是生产者和使用者,罪名为过失致人死亡罪、过失致人重伤罪、医疗事故罪等过失犯传统罪名)。需要厘清的,是有无必要在具身智能自主学习、决策、执行的情境下,调整我们原有的过失犯归责结构。与故意犯的归责路径不同,过失犯的不法部分除了考察刑法行为规范的违反,还要考察注意义务的违反,即行为人没有尽到合理的注意,导致在实施行为时现实地处于欠缺结果避免能力。同时,由于从实然并不能推导出应然,因此注意义务的考察第一步并不是确认行为人的预见可能性,而是确认注意义务在各行为主体间的分配,即“首先确定公民之间风险分配的总体格局”。在具身智能案件之中,负有注意义务的行为人包括生产者和使用者。既然刑法同样扮演着风险管控的角色,对生产者和使用者应当分配什么程度的注意义务,也需要考虑到如何在整体上将具身智能应用的社会风险降到最低。当涉及多个过失犯之间的注意义务分配时,无法绕开的是信赖原则。信赖原则本是用于限制过失犯的预见可能性的一种理论。在讨论过失犯的注意义务时,一般认为不能要求行为人避免作出无法预见的损害,即对损害结果要有一定程度的预见可能性。但是在风险社会之中,高科技带来的危机四伏会导致预见可能性的无限制扩大,最终导致的结局是架空预见可能性这一要素对过失犯成立的限制作用。因此,为了避免这一局面的出现,应使用信赖原则对风险社会中的预见可能性进行修正。信赖原则的本意是,如果行为人之所以会实施一个看似导致危害结果发生的行为,完全是因为合理信赖他方会依一般规则行事,那么结果的发生并不可归责于该行为人。风险社会不仅体现为险处横生,还体现为匿名社会,个人虽然可以抽象地想象社会中存在违背规则的人,但并不知该人是谁、违背规则在何时与何处。为了正常地行动,只能相信大家都会依一般规则行事,并依一般规则设计自己的行动。如果他方原本依一般规则行事,在双方甚至是多方的共同作用下,危害结果并不会发生。而正是因为他方的行为不合常理地违背一般规则,导致己方无法合理预见,即便从外观上看,最终的危害结果与己方的行为似乎有因果联系,此时也无法归责。在具身智能产品的刑事案件中,生产者和使用者之间、多个生产者之间、多个使用者之间,上述理论也存在适用空间。需要注意的是,部分学者所主张的“信赖原则可以适当突破自然人与自然人之间的范围。对于符合标准、正常投入流通的人形机器人,人类也可对其行动方式、操作流程产生合理信赖…在机器人与机器人之间,也可以在一定条件下存在信赖原则的适用空间”的说法,并不恰当。信赖原则只能适用于数个行为主体之间。对于非行为主体的举动,行为人只会存在有无预见可能性的区分,而不存在虽然有抽象的预见、但基于合理信赖而否认了这种抽象预见的情形。上述学者所描述的情形,比如人类对人形机器人产生“信赖”的情形,实际上是消费者对生产者产生了信赖;而机器人间的“信赖”,实际上是生产者之间的信赖。基于此,生产者和消费者的注意义务应当包括如下内容:一方面,对生产者施加的注意义务,可以从具身智能产品的生产、销售、投入使用三个时间节点作为分类标准。第一,在生产阶段,基于生产者之间的信赖,具身智能产品必须达到国家安全标准并获得授权。根据产品质量法第13条的规定,对可能危及人体健康和人身、财产安全的工业产品,必须符合保障人体健康和人身、财产安全的国家标准、行业标准;未制定国家标准、行业标准的,必须符合保障人体健康和人身、财产安全的要求。也就是说,在具身智能设计之初,安全性应当满足当时的科技水平,且需要进行大量的场景应用测试。同时,具身智能生态系统的设计员和编程员也应当履行一个谨慎的数据专家、机器学习专家、建模师等主体在进行设计、编程时承担的义务。可以想象的错误包括建模错误、数据选择训练错误、数据生成训练错误。另外,生产商必须对市面上流通的其他主要具身智能产品的性能与运作原理也有一定的了解,或者确保不同的具身智能产品在同场景使用时可以进行信息互换,以保证可以协同运行。对于具身智能来说需要特别注意的是,与普通的人工智能不同,它需要与物理空间进行交互进行学习。因此,生产者需要创设模拟环境供其预先学习。一个合适的例子是Habitat平台,Habitat平台为具身智能系统的开发提供了一个高效且逼真的三维模拟环境,极大地促进了虚拟机器人训练的实现和发展。Habitat还进行了首次的跨数据集泛化实验,测试了多种传感器配置下的代理在不同数据集间的泛化能力。结果显示,配备深度传感器的代理能够更好地在不同数据集之间泛化。第二,在销售时,基于消费者对生产者的信赖,生产者不允许超出其生产的具身智能的自动化等级与应用场景进行不实、夸张宣传。可以参考自动驾驶汽车领域,建立使用者信息告知和培训体系,让消费者正确、安全、高效地使用该项技术。同时,产品说明亦不能过于细致。过于细致的产品说明一方面会导致使用者的注意力分散,另一方面会不当分配注意义务,使负担不当转移至使用者上。第三,在具身智能产品投放使用之后,生产者需要时刻根据产品反馈的数据信息以及消费者本人反馈的意见建议,对具身智能实施监测、改进、更新甚至是召回。但是,在产品投放之后,应该留有一个“时间窗口”,在这段时间内,生产者对产品的所有反馈信息进行检测,但并不对其造成的损害承担刑事责任。另一方面,对使用者施加的注意义务,不应超过其使用非智能产品时所承担的义务。在使用者应当对智能产品承担的义务种类上,存在两种观点:观点一认为,使用者应当承担的是过程监控义务,要求使用者持续观察人形机器人运行状况,监控程度以能够及时接收警示信息为最低限度。而观点二则认为,使用者承担的应当是更低程度的必要接管义务,使用者在必要时采取紧急措施,使人形机器人停止运行,或者恢复到安全状态。基于消费者对生产者的信赖,在具身智能的应用场景中,采必要接管义务是更为合适的。否则,容易出现“掌控悖论”。这种理论最初在自动化驾驶领域被提出,但能够被适用于所有智能领域。其指出,如果一项技术的发展最初的目的就是为了解放人类、提高生产力,那么如果要求人类在享受这种福利的同时还要对其进行时刻监管,就等同于违背了发展技术的初衷。换言之,如果在具身智能的情形,反而要求使用者时刻监管其是否有造成第三人损害的可能,那么消费者根本没有动力去购买具身智能产品。基于此,具身智能产品的使用者大体上承担的注意义务分为两类:(1)合理使用义务。使用者应按照生产者所提供的产品说明,依照其用途和适用范围正确使用该具身智能产品。(2)接管义务。当遇到紧急情形且具身智能发出警报时,使用者有义务及时停止产品的运行,待查清警报原因后再继续使用。吴金昌|国家安全观视角下元宇宙技术的风险及应对路径研究肖振宇 马育红|元宇宙平台网络用户侵权的注意义务梯度——兼评民法典第1197条“应当知道”的影响因素及作用力刘颖琪|虚实交织:元宇宙空间猥亵儿童行为的刑法规制王雪琪|元宇宙系统开源许可证法律条款修正及规制方向
上海市法学会官网
http://www.sls.org.cn