人工智能是近来学界热议的话题,其中关于人工智能是否是适格的刑事责任主体,涉人工智能犯罪的归责问题仍未达成一致。关于人工智能的主体资格,肯定主体说承认人工智能是刑事责任主体。否定主体说反对人工智能是刑事责任主体。依循上述两种截然的立场,相应地产生相反的归责路径。肯定主体说主张针对人工智能设计新罪名与刑罚。而否定主体说则认为,应当坚守现有的刑法体系,运用解释等方法,对涉人工智能犯罪进行归责即可。比较而言,否定主体说更为合理。从否定说出发,主体认定和归责方面存在行为属性评价标准缺失、否定主体适格论证不清、过失归责间隙等问题。对此,需要从行为理论、主体的事实论与认知论、过失归责理论检视分析,反对新增罪名提出确立发展兼顾安全原则、划分人工智能犯罪类型、构建过失归责标准路径。自人工智能市场的进一步扩张,人工智能这一话题再次稳固了学界讨论的热点地位,相关的刑法问题更是层出不穷,争议不断。所有的讨论,都基于人工智能是否是刑事主体而展开,这些争论都试图解决因责任主体的认定困难而带来的归责难题,譬如以发展的眼光,对未来的积极态度等论证人工智能是适格的刑事责任主体。赞成赋予人工智能以刑事主体的学者从不同的层面去论证人工智能是刑事责任主体,例如在事实层面上,认为人工智能会产生出自我意识,因为在深度学习等技术的发展下,人工智能将成为类人脑的存在,或者仅仅是组成成分不同的人罢了。在认识层面,则从行为论、刑罚论等展开,认为人工智能发出的行为是基于自我意识控制下的行为,人工智能可以对其行为承担相应的刑事责任,受到与碳基生物不同的创新式刑罚。不可否认,人工智能作为刑事责任主体具有积极的预防意义与一定的前瞻性,但未来人工智能在技术上是否有质变与突破,法学家并无话语权,对人工智能的发明创造不能提供科学贡献。同时,赋予人工智能以人的概念,以刑事责任主体资格违反了人类中心主义的观点,并且若承认人工智能是人,是刑事责任主体,又违背了自我论证的逻辑,论证以物主中心主义展开,主张平等,可是却以碳基生物人的身份赋予硅基生物以人的地位,体现了人的傲慢。在刑事责任主体的纷争下,又引发了人工智能的归责难题。在否认主体说的观点下,涉人工智能犯罪是传统犯罪在新兴领域的延伸与异化,现有理论与罪名完全可以将其包含,弊端是存在一定解释上的困难,需要对传统理论进行检视与更新,比如人工智能过失行为的行为解释。在算法黑箱的情形下,认识错误与打击错误的认定等等。在肯定主体说的视野中,其认为应当承认现有刑法理论的不足与相对落后,以对未来的预测作为基准,消弭刑法滞后性的弊端,并建立一套新的人工智能归责体系,该体系与人类归责体系相似,却又不同。以论证人的有责理论作为人工智能有责理论的依据,又单独为人工智能构建刑罚种类与规则。学界目前存在基于肯定主体说下对人工智能进行研究的趋势,呼声愈发高涨。但基于虚无的概念、事实所产生的归责理论体系终归只是海市蜃楼。对涉人工智能犯罪的归责证成,只能建立在否定人工智能是刑事责任主体的立论下,在如今,刑法的归责在行为认定方面,涉及过失犯罪方面,技术缺陷导致的认识错误方面等出现一定的解释困难,亟需对相关理论进行迭进更新,以适应人工智能时代的规制要求。本文将对这种虚无的肯定人工智能刑事主体理论加以批判,这就需要从事实论与认识论加以规范分析,从事实与价值评价加以阐述,在此基础上对现有的涉人工智能犯罪的归责理论进行检视与观点的更新,并提出关于人工智能归责漏洞的应对之策。
人工智能所实施的侵害行为是否属于刑法意义上的不法行为,这一问题向传统的行为论发出了现代化的考验。传统的行为理论包括因果行为论、社会行为论、目的行为论、人格行为论、社会人格行为论、折衷的自然行为论与社会行为论。在因果关系论下,行为是生物、物理的过程。自然行为论认为行为是纯肉体的外部动作。有意行为说则认为行为是在行为人意识控制下的发出。人工智能不存在纯粹的肉体,且无有意性与有体性,所以人工智能所产生的一切行为皆无法被评价为不法行为。在社会行为论指引下,其认为具有社会意义的人的身体动静才是刑法上的行为,其以社会作为评判行为的核心,人工智能的行为在该说下也无法被评价为刑法意义上的行为。虽然人工智能的行为具有社会意义,但不承认动作的发出主体是具有社会意义的人。在目的行为论的观点下,行为是朝向实现自我设定的目的所从事的活动。该说的核心是目的性,该目的是人的目的,目的行为论也无法将人工智能作出的行为评价为受刑法规制的行为。行为目的论要求行为产生主体具有人的目的性,目的是被设定的目的,即使承认人工智能是刑事责任主体,是人,但是其发出的行为时,设定发出该行为的目的的主体仍然是人工智能的创造者,产生了主体之间的分离,且在技术失控的情况下,无法将人工智能的过失行为包含在刑法的行为之内。在行为人格论的观点中,行为是行为者人格的实现。人工智能并不具有人格,同样即使承认人工智能具有人格,算法黑箱是不是人工智能的人格表现,存在疑问。折衷的自然行为论与社会行为论则认为,行为是指行为主体实施的客观上侵害法益的身体活动,在该观点的主张下,行为必须是人的外部态度,至于是否有意,则无需考虑。人工智能的行为在客观上确实侵犯了法益,但人工智能仍非行为人。所以,无论基于何种学说,人工智能的侵害行为应当被评价为刑法上的不法行为。在人工智能领域,不法行为是由人工智能发出的活动的过程,以目前应用最广泛的人工智能产品,智能网联汽车与问答式人工智能为例,在智能网联汽车出现交通事故,与道路上的其他车辆发生碰撞,碰撞这一过程即属于侵害了法益的不法行为。同理,问答式人工智能中,输出含有侮辱性、歧视性语言的回答,这一完整的回答过程也属于不法行为,若对人工智能的侵害行为作出刑法意义上的否定性评价,则无法对碰撞、语言输出暴力等行为进行正当防卫。传统的行为学说的共同弊端在于行为主体的相对局限性,即要求不法行为的发出者必须是生物意义上的人,但是评价一个行为是否是不法行为,是否侵害了法益不应当以行为直接作出者是何种会运动物体作为评价要素之一,至少在不法的层面讨论行为的发出主体并不恰当,在逻辑连贯性与体系性上,导致一定的缺憾。综上,传统的行为论在人工智能时代下具有一定的适用解释困境,需要对旧有的理论进行时代性重新阐述。
刑事主体是否适格,是人工智能可自我答责的前提。关于人工智能是否是刑事主体的争论,实质上是从事实论与认识论而展开的。在事实论层面,学者们多从技术角度论证,肯定主体说认为,由于自然语言处理技术即深度学习技术的支撑,人工智能体将或产生自主意识与意志,其行为可能不再受人类设计和编制的程序控制。以ChatGTP为例,其能自主进行学习与自我储存数据,“理解”用户请求,并结合用户习惯于语境完成用户的请求,同样是语言模型的LaMDA,其研发者称LaMDA出现了自主意识,它能创造性使用语言,分享感觉,表达内省与想象。基于目前的技术与对技术的乐观预估,人工智能将产生自由意志。当人工智能符合自由意志的技术要求时,就产生了责任的物理性基础。否定主体说则认为,当前人工智能技术远远未到达自由意志产生所需的标准,奇点是否真实存在,何时会来临,并无确切答案。在自然科学家们对此皆莫衷一是的场面下,法学家在人工智能技术领域毫无话语权,基于虚无进行论证的结论并不具有现实意义,甚至只会产生学术泡沫。在认识论层面,主要以哲学认知、可罚性、辨认控制能力、拟制作为切入点进行论证。肯定主体说通过哲学心理要素批判、道德代理、可罚性条件、法人类比等角度论证人工智能具有刑事主体地位。该说有观点认为,首先,通过人工智能体能窥见其具有认知、意志与情感,表现出一定的能够被评价为“智能”的证明,符合心理要素这一要求。人工智能的“智能”的产生及其发展规律与自然人的“智能”存在区别,并非是否定人工智能成为刑事责任主体的理由。同时认为刑事责任主体应当与生命分离,物质与心灵互不依存,彼此独立存在。生命不是责任主体成立的条件。其次,在刑法上,法人是拟制的法律主体,不具有自然人的生命的意义存在,是社会发展到一定程度的衍生物,通过类比可得,人工智能同样是社会发展的产物,在刑事责任主体的认定上与法人制度的创设具有一定的关联性与高度相似性,既然法人突破了刑法以自由意志作为责任基础的主体认定边界,摆脱了传统伦理的观点边框,那么人工智能可以如同法人一般成为刑事责任主体,通过法人制度的证成路径也可以证成人工智能的独立主体性。在欧洲,已有赋予机器人以主体地位的立法呼声。再次,就刑法论而言,肯定主体是刑罚的前提,行为人具有刑事主体地位,实施了刑法所禁止的不法侵害行为,就应当承担责任,接受刑罚处罚。反对将应受处罚性置于社会危害性和刑事违法性层面进行评价。在判定人工智能是适格的刑事责任主体应从辨认能力与控制能力进行,并且认为刑罚的本质并非是使人痛苦,即便承认刑罚具有报应与预防功能,未来的人工智能也可感知痛苦,产生于人类社会匹配相同的伦理观与善恶观,在一定程度上,对人工智能施加刑罚具有实际效用。在刑罚的种类上,也会随着社会的发展而创造出适用于人工智能的刑罚处罚方式,是人工智能时代规制涉人工智能犯罪的重要内容。复次,人工智能作为刑事责任主体并不违背罪责自负原则,将人工智能认定为刑事责任主体,对原有的刑事责任的认定依旧是客观行为与主观心态等,只会影响责任分配问题,并不会导致推卸刑事责任现象的出现。责任的重新分配,更加明确了罪责的承担,是罪责自负原则的精神体现。最后,是多中心主义的提倡。基于对技术的乐观发展前景,肯定主体说认为人工智能将在智慧上远超人类,形成一个独立的主体存在于世界上,人工智能与人类共同成为存在体,传统意义上的法律人格将发生改变,不可能如同旧有格局下的价值指归的权重地位,人类的绝对性必然消失,多中心的格局将诞生。秉持否定主体说的学者认为,无论从何种理论而言,都无法证成人工智能是适格主体。首先,人工智能不存在哲学意义上的自由意志,自由意志仅仅只能是为人所拥有,意识展现的是人类的特质,意志体现的是主体的自我选择能力和决定能力。人工智能无法真正意识到“我”的存在,所以缺失有意选择行为的自由,也缺少意志情感。基于道义责任论,具有自由意志是分辨善恶,树立正确伦理观的前提,不具有自由意志的行为,是具有非人性与无理性的选择,行为的发出者不是适格的刑事责任主体,不具有可罚性,人工智能没有自由意志,不能认知自我行为、行为的社会意义,无法价值判断,人工智能仅仅只是人类所创、服务于人类的工具,对其进行适格主体的评价并无法哲学等法学理论的根基。其次,类比法人说不可适用于证明人工智能是适格责任主体。尽管法人与人工智能一样,与自然人存在区别,但法人是自然人的集合体,单位(法人)的责任由自然人承担。根据刑法规定,单位犯罪一般采取以双罚制为原则,以单罚制为例外。即使采取单罚制,也是处罚单位直接责任人员,直接责任人员亦是自然人,给予人工智能以刑事责任主体地位,将人工智能视为一种代理人并不具有事实依据,成为自然人更是天方夜谭。同时,单位有独立的财产,可以对单位进行财产处罚,反观人工智能,并无独立财产,对其施以财产刑并无现实可能性与处罚必要性,其所实施的犯罪承担刑事责任难以实现。再次,人工智能并无可罚性。以刑罚论作为切入点,根据传统学说,刑罚只能作用于人类,刑罚体系是根据人类建立而成,人工智能与人的区别是,人工智能无肉体的欲望和金钱的欲望,无法产生痛苦等负面情感与现实财产,既有的刑罚无法起实际效用。对人工智能施加所谓的刑罚,例如永久销毁等,缺失会令人工智能灭失,但实际的财产损失仍由人工智能的所有者承担,实质上是对人工智能所有者的财产剥夺。在高度依赖人工智能的社会中,对人工智能所有者剥夺人工智能,也间接剥夺所有者或者与之相关的人类的自由。如此,对人工智能施加刑罚无法展现预防的刑罚规制功能。刑罚对人工智能无效,或是起预防作用也仅仅是一种表象。复次,对人工智能施加刑罚,使本应该承担相应责任的主体不承担或承担了不对等的责任,导致操控人工智能的真正犯罪行为的实施者免于或者分散了责任的承担,实际上是违反了罪责自负精神。最后,人类中心主义的坚守。人性作为权利主体的核心要素可以维持人类的连续性。法律体系的构建皆建立于人性之上,将非人类纳入刑罚,作为主体,是对刑法体系的根本性动摇,也是另一种对人类权利剥夺。同时,依据逻辑预设,对人工智能进行要素与标准的主体衡量,产生的必然是否定性结论。
在人工智能时代,对人工智能进行归责可能会出现归责间隙,间隙的产生既是理论解释困境所致,也是逻辑无法自洽的匹配错误所致。首先,自主学习能力的存在导致具体预见可能性的认定,存在困难。结果预见可能性是旧过失论、新过失论、新新过失论共同认定的,过失犯罪成立的必要基础。不论基于何种过失理论学说,涉人工智能过失犯罪都应当以结果预见可能性为前提,即使承认人工智能是刑事责任主体,从技术与评价层面,也难以判定其是否可以预知到结果的发生可能性。另外,在不承认人工智能是刑事责任主体的条件下,人工智能只能是工具存在,实际责任主体则是人工智能的研发者、生产者。人工智能按照研发者设定的程式运行,但人工智能基于深度学习技术会产生一定的自我演化,使人工智能的研发者、生产者难以对其全部行为完全预见,人工智能的部分行为具有不确定性,由此导致了真正责任主体对人工智能事故的预见可能性的削减。过失责任的归责路径存在阻碍,遵循旧有的过失归责路径无法对责任主体进行答责,结果预见可能性的缺失使认定涉人工智能过失犯罪的首要困境。其次,涉人工智能犯罪中如需承担过失责任,以违反注意义务作为要件。但现注意义务的认定存在困难。注意义务在结果预见可能性无法判断时,注意义务时厘定涉人工智能真正责任主体、承担刑事责任的主要依据。如果以新过失论的学说观点为参照,认为预见可能性是注意义务的前提,即只有具有一定的预见可能性才可以产生注意义务,那么涉人工智能犯罪将产生无责任的逻辑悖论,主观内容与客观内容成为同一阶层的构成眼见。虽然人工智能技术具有了一定的质变进展,人工智能开始迈进全新阶段,人工智能治理的安全保障框架正在构建,但对于人工智能事故的责任主体规制,特别是明确的注意义务的来源与内容、体系化的技术规范尚未完善。如若类比计算机信息网络的规范,制定人工智能责任主体的注意义务与行业标准、伦理规范、法律法规,则会导致人工智能的特殊性缺失,造成对人工智能发展的非技术性障碍。在当下,人工智能在追求极致创新方面不断突破,持续健康发展成为焦点,但人工智能前置法总体仍显粗疏,难以明确厘清人工智能责任主体的相关注意义务,在认定人工智能责任主体的过失责任时仍困难重重。最后,涉人工智能犯罪中的因果关系模糊不清。归责的前提是涉人工智能过失犯罪发生了危害结果,以危害结果作为必要条件。在归责时,还应当明确人工智能过失行为与侵害结果之间存在因果关系,将人工智能事故的侵害结果归于人工智能责任主体过失行为,进而对人工智能责任主体施加刑事责任,然而,人工智能过失犯罪与传统过失犯罪不同之处在于,人工智能技术的极致前沿性,人工智能的决策可能是自主且独立的,是特殊的自我决策行为,而人工智能的创造者无法完全认知,牵涉的主体更为广泛。人工智能可以在无标签的训练数据和大量无标签的数据中进行无监督学习,通过挖掘数据中的潜在规律为数据赋予意义,且算法黑箱的存在,缺乏透明度,使外界难以理解其决策过程和依据,因而从主观与客观的技术事实上,人们都无法窥见人工智能的具体全貌,所以人工智能的决策模糊性与自我演化的不确定性使因果关系无法进行理论与事实的连接,甚至导致因果关系认定倒置现象的产生。
通说认为,行为必须是意志支配下的活动。如此便将“非人”的活动排除在刑法讨论的范围之外,但将人工智能的行为或曰举止排除在刑法的评价范围之外并不合适,不具有正当性。一是,应当看到,人工智能是活动的,那必然会产生一定的行为。二是,秉持有意行为说作为理论检视中的论证依据,对人工智能的动静进行解释,即可将人工智能的举止解释为刑法意义上的行为。刑法中的行为应当是受人的意识支配的,能够改变、影响客观事物的刑法上明文禁止的行为。人工智能的意识仅是表象意识,而真正的意识是人,即人工智能的创造者的意识。人工智能的行为是人的意志的外化表现,与其他的不表现为人的意识的行为得以区分,例如不可抗力等自然行为。三是,人工智能的行为能够改变、影响客观事物,并非单纯的思想。例如应用范围最为广泛的智能网联汽车,其失控的碰撞行为会导致人身损害或是财产损害。四是,人工智能的不法行为是刑法明文予以禁止的。例如人工智能机器人杀人行为,杀人行为本身就被刑法所明令禁止,所以,人工智能的行为可以被评价为行为,在论证人工智能的行为时,无论是行为是否要求以意志作为前提,都可以通过解释将人工智能的意识解释为人的意识,从而符合行为学说对行为条件特征的要求。如此,人工智能的行为锁定为刑法上的行为的好处是,在人工智能不法侵害的场景下,可以将人工智能的行为作为正当防卫的客观对象,进行防卫,使受侵害的对象具有正当化合理事由。
上文已述,在事实层面,人工智能刑事责任肯定主体说的观点中,认为基于当下的人工智能的突破与对未来的乐观预估,人工智能会产生自由意志,甚至在智能上远超人类。为了使刑法具有前瞻性,避免刑法的严重滞后,应当将人工智能作为一类特殊的刑事责任主体,符合未来的事实性要求。不可否认,科技水平是人工智能作为主体的解决定性因素与事实基础,但科技水平的评估与预测应当建立于有依据的自然实证上。根据Patrick Butlin等19位跨多学科的学者,于2023年8月发布的研究显示,人工智能并不完全符合意识评估的要求。在对已有的声称具有意识的人工智能,例如Chat-GPT4.0、LaMDA等进行意识科学理论的调研,包括RPT、计算HOT等,拆分出了14项指标。上述的人工智能不能完全实现指标,说明现有的人工智能并没有具有意识。同时,对人工智能意识的产生与否持中立态度。既然自然科学家对现存的人工智能的意识做出了实证否定,对人工智能的意识产生的态度中立,那么作为社会科学领域的法学家,以人工智能索菲亚、AlphaGo或者智能网联汽车作为例子,对人工智能的科学技术评判,似乎无有影响的说服力。早有学者指出人工智能机器人索菲亚是一场商业炒作,其自主发言是早已设定的程序。而AlphaGo也不具备独立的思维能力,能战胜柯洁是基于深度学习技术对大量的参照数据计算而得的结果。高阶智能网联汽车亦是依据大量的数据通过算法实现无人驾驶。另外,以摩尔定律对人工智能的预估存在错误。摩尔定律描述的是集成电路上可容纳的晶体管数目大约是每隔18至24个月会增加一倍,同时处理器的性能会提升一倍。摩尔定律适用于集成电路领域,并不适用于对人工智能发展的预估。综上,在事实层面,人工智能并不会产生自主意识。在认识层面上,肯定人工智能刑事责任主体在自由意志、类比法人等方面都无法立足。首先,自由意志是刑事责任的基础,“对于不具有认识因素的无知行为或是受到强制的无选择的非自愿行为,是不应当受到刑罚谴责的行为”。自由意志的基础论可追溯至古希腊时期,古希腊哲学家首先肯定了人具有自由意志的存在,并将人的行为分为自愿行为与被动行为,以是否受到人的自控作为评价行为的道义标准。这是将刑事责任作为有责阶层评价的理据所在。人若缺乏对自身的控制或对行为作出道义评价的能力,就不是伦理意义上的人,不能分辨是非善恶,并不能被定义为法律意义上的人。肯定说之所以认为人工智能是人,具有自由意志,是因为其混淆了内在与表象的关系。观察事物应当深究其内在,而非表象。人工智能所产生的诸如能脱离人的掌控而驾驶汽车、对孤儿表示同情等等表象,都是自然人创设的程序所致。人才是人工智能的内在。即使人工智能符合人的外在要求,具有语言符号,也无法反映人的内在理性。而理性是衡量价值,作出属性评价的核心。人依靠理性存在,对事物作出相应的判断。不应将强人工智能视为一个有自主意识的人,赋予人工智能刑事责任主体地位。所以,就人工智能的本质而言,人工智能仅仅只是人的工具,是人的器官的延伸,是作为人创始造出来的劳动工具的一种,为人所用。其并无法认识自身的意愿与通过一定的行为去实现自身的意愿。人工智能无法复制、模拟和超越人类的主体性。其次,类比法人或单位制度无法为人工智能拟制为主体提供恰当理由。一方面,单位犯罪是由直接责任人员实施的,行为主体仍然是自然人,是生物意义上的人。单位犯罪是法律拟制的,去除法律拟制,单位犯罪可以还原为自然人犯罪。单位主体的取得,以自然人为基础,其责任的承担也未超出自然人的范畴。另一方面,单位承担刑事责任的前提条件与人工智能有别。单位的责任主体资格受到前置法如民法、行政法所承认。民法、行政法认为单位(法人)具有承担责任的资格,但最终实际责任仍由人类承担。在民法领域,欧洲立法提议增设电子人为民事责任主体,赋予其电子人格。但当前世界范围内针对人工智能的立法,皆没有承认。人工智能造成的侵权损害责任、产品责任,由人类作为责任主体承担伦理道德责任与法律责任,而非人工智能承担。无论是应然层面还是实然层面,将人工智能作为责任主体难以成立。同时,刑法是保障法,是法的底线,在其他前位阶的法都无法将人工智能视为责任主体的情况下,刑法类比法人制度将人工智能拟制为责任主体,有违刑法的谦抑性原则。此外,单位犯罪的关键认定要素是单位整体意志,单位犯罪是在单位整体意志支配下实施的。单位本身无法产生独立的思想意志,单位整体意志并不是单位独立产生、想象而得,而是单位内部成员在达成一致后形成的意志,仍然由自然人产生,是单位的内部自然人的意志的集中体现,并由单位的自然人做出身体行动执行。如果没有单位内部的自然人主体,也不可能有单位犯罪。再次,刑罚论无法为人工智能成为刑事责任主体提供理论支撑。一则,在将刑事责任能力等同于受刑能力的基础上,论证人工智能并无法受刑能力。在边沁功利主义的影响下,法学界普遍认为,刑罚是一种强烈的痛苦,是国家对犯罪行为否定性评价。受刑能力则是可以感知痛苦的能力。人工智能无法感知痛苦,刑罚的痛苦来源于对罪犯身体的、精神的限制剥夺与对财产的限制剥夺。于身体、精神层面而言,虽然人工智能已能够模仿人类的感情,在模仿人类神经技术上有了一定突破,但仍无法基于自身感知痛苦、情感,所以无法感知限制剥夺自由、生命、财产的肉体、精神痛苦。另外,人工智能缺乏承担刑事责任的能力。删除、修改等措施或曰针对涉人工智能犯罪的刑罚手段,可以达到类似于限制剥夺自由的表象效果,但财产刑难以实现。人工智能无实质财产,没有限制剥夺财产的现实基础。同理限制剥夺政治性权利更是毫无依据,因为我国法律不承认人工智能的公民资格。二则,对人工智能施加刑罚并不能达到刑罚的目的。痛苦是刑罚的属性而不是目的,刑罚的目的是预防犯罪。预防包括一般预防与特殊预防,而无论是一般预防还是特殊预防,皆需要刑罚的执行而得以实现。如若通过删除修改、销毁的刑罚手段对人工智能执行刑罚,也仅仅只是对人造物的毁灭的表现,难以构成刑罚剥夺性痛苦。在特殊预防上,对人工智能无法实现威慑、教育,对其他人工智能更谈不上一般预防。再者,人工智能在符合外表条件上的矫正要求,比如无意志自主性。但矫正刑的前提依旧需要遵循主客观相一致原则。人工智能缺乏主观上的意志,刑罚适用必须以有自由意志为前提,不通过主观恶性就对人工智能施加矫正刑,有悖矫正刑背后的逻辑原理。此外,对人工智能施加刑法必须经过人民法院的审理,依据刑法、刑事诉讼法而作出。但如此便会产生一个荒谬的场面,人类对人造物进行审判,如同人类审判电脑、手机一般。即使承认人工智能具有自主意识,能够拥有独立人格。那么人类审判人工智能的依据是什么?人类有资格、有能力对人工智能犯罪进行审理吗?这恐怕是文明的另一种倒退。
客观归责理论由德国法学家罗克辛所发展,运用客观归责理论可弥补过失责任在人工智能领域的间隙。“不同于传统刑法理论在故意犯基础上建立的犯罪论体系,其立基于过失犯构建犯罪模型和犯罪论体系,重新认识和结构了过失犯的内在机理和外在(客观)归责。”根据罗克辛的客观归责理论,对于过失的归责,应当在构成要件内评判。在过失犯罪中,因国内缺乏对过失犯罪构成要件的充分讨论,在规范层面也无细致明确的限定,致使过失构成要件与故意构成要件相比,处于较为空缺的状态,客观要素的标准并不明晰。传统理论愈发偏向对主观要素过失心态的具体构建,并强调预见可能性、注意义务在认定过失当中的必要性作用。如此便导致过失认定过于依赖心理主观要素,对于过失心态过度倚重。在人工智能领域不仅技术难点无法事实确定行为人的主观心态,同时还模糊了预见可能性与结果避免可能性。在新兴领域的实践检视下,传统过失归责理论弊端凸显。为弥补传统过失归责理论的弊端,应当将制造不被允许的危险、行为实现了不被允许的危险、结果没有超出构成要件的保护范围作为过失行为客观归责的必要条件,据此判定过失是否成立。如此有利于解决风险社会下人工智能领域的过失归责空缺问题,实现客观化的归责路径。首先,在判断制造不被允许的危险层面,传统过失理论认为,人的意志对于行为的支配是决定要素。但客观归责理论否定了该观点,只有在行为人的行为不当制造或者提高了不被允许的风险性,且对风险性有认识可能性时,才有实行客观归责的可能。在涉人工智能过失犯罪领域,用于确认行为是否制造了不被允许的危险的标准,是前置法中的规定。由于人工智能领域仍处于发展阶段,相关前置法规与相关业务标准、义务尚处于粗疏的状态。所以完善相关法律规范是判断不被允许的风险的关键。同时,将是否制造了不被允许的风险作为判断人工智能过失犯罪的认定条件之一,并不会阻碍人工智能的发展。可以将此处的危险理解为抽象危险,即抽象意义上的危险。其次,在实现不被允许的风险的层面,客观归责的前提是存在结果实现的风险。所以,对涉人工智能的过失犯罪的认定中,只有存在结果回避可能性才可以进行归责。在人工智能没有违背注意义务规范的保护目的所包含的结果时,理应排除客观归责。规范保护的目的,是指刑法中所包含的对法益保护的目的,行为违反了刑法规范,侵犯了规范保护的法益,即是不被允许的风险的实现。如果行为违反了注意规范,但造成的结果并不是违反注意规范的结果或是造成的结果并非刑法规范的结果,就不能认定为刑法上的风险,不违反刑法规范目的的正当性。再次,在没有超出构成要件的保护范围层面,可借鉴侵权责任中第三人责任范围进行划定,行为人对超出自身领域内的责任无需承担刑事责任。基于人工智能工具论的前提下,涉人工智能过失犯罪的责任主体包括人工智能的创造者以及人工智能的使用者,粗略可分为人工智能的研发者、生产者、销售者与使用者。同时,根据智能程度的不同,对上述主主体分配的不同责任义务。智能性越高,使用者承担的责任越小,而研发者、生产者的责任越大。例如智能网联汽车分级体系以及相关法规对不同主体进行的责任分配。
随着人工智能技术日新月异的发展,相关越轨行为发生频率逐渐升高。如何应对这些行为成了学界热议的焦点。主张通过新设罪名进行规制的呼声愈来愈高。然而,新设罪名不仅是刑法内容的部分修订,而是涉及刑法整体的变动;不仅有违刑法的谦抑原则背离了刑法的核心理念,而且还有超前立法之嫌。首先,新增立法违背了刑法谦抑性原则。刑法的谦抑性,是指立法者应当力求以最小的支出少用甚至不用刑罚而用其他刑罚替代措施,获取最大的社会效益,有效的预防和控制犯罪。在新兴领域设置新罪名是现代学者应对问题的手段。但设置新罪名打破了长久以来就被承认的谦抑原则,以及谦抑原则中产生出来的对立法者的持续性要求。具体而言,谦抑性的内容包括补充性、不完整性与宽容性。其一,刑法谦抑性的核心内容是补充性。补充性强调,在其他部门法中的合法行为,刑法作为最严厉的部门法,应当保持沉默。在其他部门法足以规制行为之时,刑法应当谨慎,不可主动进行处罚。刑法必须尊重其他部门法的价值取向与解决矛盾的能力。只有在其他部门法难以发挥其相应作用时,刑法才可积极适用。所以,关于是否新增罪名的刑法讨论,应当考虑其他可替代性手段作为作用的发挥。如果其他手段得以规制,则无纳入刑法规制的必要。虽然现今处于风险社会,人工智能事故的发生愈发频繁,且人工智能在学习记忆等方面超越了人类,但其侵犯的严重程度仍然有限,仅属于民事上的侵权行为。即使严重程度高也可以通过解释,将人工智能工具化处理,寻找已有的罪名对行为定性并施以相应的刑罚。其二,刑法不完整性是指刑法只能用来保护重要法益。关于不完整性,学界有两种解读。一是,即使刑法对于越轨行为或者危害社会的行为有规定并不意味着皆事无巨细,对任何问题都没有规定漏洞。刑法不介入社会生活的各个角落,并非将所有的违法行为都予以处罚,只将可罚并且规定的行为作为处罚的对象。二是,认为前置法只是判断刑事违法性的素材。犯罪的认定应当根据构成要件、考虑保护的法益、目的等。换而言之,刑法的规制范围与其他部门法的规制范围并不完全相同。不要求刑法与其他部门法的违法性相当一致。行为违反其他部门法,但刑法基于自身的违法性判断得出刑事违法的否定性评价,并不违反法秩序的统一。无论从何种不完整性角度而言,设立人工智能新罪名都有违刑法的不完整性。通过增设新罪名解决人工智能领域出现的所有问题,存在疑问。同时,刑法过度介入人工智能领域也会产生抑制发展的风险。其三,刑法谦抑的宽容性是指行为形式上符合构成要件,可以进行处罚。但若侵害性较小的,刑法理应保持克制。因为刑罚具有最严厉性、残忍性。如果轻易动用刑罚,将产生毁灭性后果。所以即使某些行为违反了前置法,但危害性较小、违法性轻微,不应当以刑法进行规制。例如IBM人工智能系统误诊案。人工智能医疗系统Watson对一位患者进行诊治时,误诊为癌症,并予以不正确的医疗建议,造成该患者进行了不必要的手术。如果该类似事件首先适用刑法进行规制,不仅会造成人工智能技术发展的相对停滞与产生未知惶恐,而且存在不适当扩张刑法犯罪圈之嫌。故针对人工智能产品的意外事件,应当先交予民法处理较为妥当。对其先进行民事赔偿,相应监管部门处以行政处罚。如果可以达到良好的管理效果,则无需动用刑法。其次,新增罪名的本质上是过度犯罪化。主张立法的学者认为将滥用人工智能行为纳入刑法规制的范围属于适当的前瞻性立法,是在充分考虑人工智能时代所带来的种种变化后做出的恰当选择。所谓前瞻性立法,也即超前立法,是犯罪化的特殊形态之一。涉及刑法立法的科学化问题。超前立法针对的是尚未成熟、处于未然状态的社会关系,预先进行规制。根据时间的标准,将立法分为超前立法、滞后立法、平行立法。滞后性是刑法稳定的特征之一,追求稳定性不可避免的具有一定滞后性。滞后立法建立在“成熟一个,制定一个”的方法之上。其观点认为只有成熟的、肯定的经验才能用法律固定下来。主张超前立法的学者反对上述观点,认为超前立法是具有科学性的,是根据已认识到的客观规律和社会发展的需求,有预见性的形成新的社会规制的规定。法应当具有未来的可适用性。至于平行立法,则是与所调整的社会关系平行、同时的立法,在社会关系完全形成后,对该社会关系调整的相应刑法法规事实出台。其认为“立法不能只强调主观设计—超前,又不能被动地对客观必然性的加以描摹——滞后,应当把两者结合起来—同步”。滞后立法无法发挥真正的规制作用,不利于时代化的法治建设。超前立法有违客观实际,有意志论之嫌。一部法律的根本性质可能只属于三者之一,但大部分法律往往是共同并存的。无论是滞后立法、超前立法、平行立法,都存在于我国的刑事立法当中,滞后立法与平行立法较为常用,而超前立法近些年也有增多的趋势。例如刑法修正案(八)的危险驾驶罪,将原本属于道路交通安全法中醉驾的规制划入犯罪圈、刑法修正案(九)的恐怖主义犯罪为了打早打小对犯罪提前介入、刑法修正案(十一)的高空抛物罪,将处罚前移,超前干预。而超前立法的弊端已有所显现,比如罪名的部分虚置。由于超前立法对社会关系的发展是基于一定的未来预测。可能会存在判断的偏差,所以应当审慎看待超前立法,辩证看待超前立法。其一,不应当寄予超前立法过多期望,因为超前立法是建立于一定社会关系形成之前,对未来社会关系的一种预测性调整。而法理上却强调,立法的前提与必要性是由一定社会关系的存在。超前立法显然违背了法理。同时这种建立于预测之上的立法,不仅在前提性条件下失去科学性,也可能在执行或实施环节变成恶法存在。阻碍人工智能时代下社会的发展。其二,对超前立法亦不可全盘否定。超前立法是现代科学技术和现代发展过程中的一种产物。如若满足一定的立法条件,超前立法也属实可行。但其应当建立在对条件与社会现实的精神精准把握的基础之上,针对人工智能设置新罪名,并不满足超前立法的条件。超前立法的条件是只有在常规立法方法无法解决问题,而相关社会关系又具有立法的必要性时,才可以超前立法。超前立法的必要性具有以下两个标准。一是,法律欲推行的行为模式符合现实社会发展所提出的要求或者发展的方向。二是,该行为模式符合大多数人的价值观。新设人工智能罪名显然不满足上述要求。人工智能开始迈入全新阶段,全球不断升级人工智能战略,人工智能不仅在领域范围上取得新突破,技术层面也有了更进一步发展。例如范围上人工智能在感情陪伴领域的拓展,技术上新算法的不断涌现,融合成为趋势。虽然可能存在导致他人伤害的风险,例如前述的沃森(Watson)系统误诊医疗事故,但是这种风险应当被视为一种刑法上被允许的宽容风险。如果人工智能技术对人类有利,那么在一定程度上而言,社会需要对技术进步所附带的风险产生一定的包容义务。以智能网联汽车为例,完全自动驾驶技术减轻了驾驶人的负担,避免了自然人的弊端风险,相较于自然人而言,大大降低了事故的发生。通过价值衡量,可以认定该技术更有利于社会的发展进步,那么就有容忍风险的合理性。虽然人工智能满足社会发展方向层面的部分要求,但并不符合大多数人的价值观。因为新设人工智能罪名并不符合侵害法益原则,大多数人的价值观普遍认为,只有行为会造成严重的法益侵害,才应当针对该行为设立罪名。当前涉人工智能犯罪可以通过解释被现有的罪名涵摄,进行规制。人工智能犯罪的本质是相关自然人犯罪,所以,现人工智能产生的风险仍是可控的风险,且未来人工智能的发展尚不明朗。贸然立法,背离了社会大多数人的立法价值观,不当扩大了犯罪圈的范围。
人工智能正在进入“创新驱动、应用深化、规范发展”的新阶段。目前人工智能尚存有不完善之处,智能化路径仍在高速探索时期,发展空间较大。促进人工智能的发展,赶超人工智能发达国家,发展是人工智能的第一要务。但发展也不可也不应是盲目的。人工智能的发展与技术的迭代更新是治理的核心,是人工智能刑事治理的必须所在。人工智能作为工具存在,被创造的核心宗旨应当是服务于人类、造福人类。人工智能之所以称为人工智能,是因为其是由人类创造,在技术上是模仿了人类的生物性智慧,模拟人类的信息处理等多方自主性能力。其社会意义是降低人类非理性风险,处理事物,提高社会效率。无论是何种智能程度的人工智能,都需要人类让渡部分权利,实现其正常运行,例如对事务的控制权甚至一定的主动认知权。让渡权利的目的与目标只能是为了人类的有利利益,而不是为了发展人工智能自身利益。我国通信院于2022年发布《人工智能白皮书》中,提倡打造可信人工智能,可信人工智能就是基于以人为本的发展理念而对人工智能提出的新发展要求。人工智能应当在人类掌控之下发展,并且只能在人类掌控之下。如此才能保证人工智能的定位准确,有利于人类的利益。所以,在涉人工智能的刑事治理中,应当确保人工智能的自主控制权与人类的反向权利不会脱逸,保证人工智能在以人为中心的轨道上发展。虽然现仍处于技术发展期,人工智能暂时没有脱逸的风险,但其发展过程的偏离也可能产生侵害法益现象,规制目标难。相较于网络技术而言,人工智能的技术更为高级繁杂,不仅具有类比模仿能力,还具有数据处理转化能力。所以,借鉴网络犯罪的治理经验相对有限。何况网络犯罪治理中的事后弥补、威吓预防等方式收效不佳,所以在涉人工智能犯罪领域,刑法应当在人工智能发展阶段,例如人工智能研发、工程实践、应用、服务等方面予以规制,才能保证人的有利利益处于发展的核心地位,确保正确的人工智能发展方向。促进人工智能的发展兼顾安全保障是我国人工智能领域的刑法时代性任务之一。人工智能治理需要灵活性平衡二者的利益,落实发展的理念偏重,同时体现刑法的保护作用。达到宽容发展与安全保障的有效统一。当前,人工智能仍属于弱人工智能,应当以发展人工智能技术作为侧重点,使其沿着“创新、工程、可信”的方向演化。人工智能的核心技术是算法、算力与数据。算法是人工智能的基础,通过大数据优化模型参数,也促进了新算法的产生,如贝叶斯网络等,推动了人工智能的发展。所以大数据是支撑技术之一,针对人工智能的安全保障应以大数据为切入点,保障其发展所需的外部条件。收集的数据支持进行开放性开发使用,允许人工智能研发单位进行有利人类的无害利用。另一方面,对数据利用合理限制。对隐私数据的优化管理与合理利用,无关的关联性数据予以删除。同时,承担数据的清洁义务,防止数据污染。贯彻发展兼顾安全原则需要区别对待人工智能多方过程中的侵害行为。人工智能的研发创造是人工智能发展的关键环节,在该环节中的正常损害行为,刑法应当谦抑,避免过度犯罪化。刑法真正需要进行规制的是利用人工智能犯罪进行故意犯罪的行为。因为该行为不仅破坏了正常的社会秩序,还减损了公众对于刑法、人工智能的信赖感,产生对刑法人工智能的抵触情绪,阻碍人工智能的应用。
人工智能刑事责任涉及研发、生产、使用三个环主要环节。按照环节分类,划分人工智能犯罪类型,有利于正确分配人工智能领域的刑事责任,体现人工智能归责的发展兼顾安全原则。从发展的角度而言,对研发者进行刑事责任归责在外观上具有从源头上预防的效果,但显然对研发者过度苛责,则阻碍人工智能的进步。因为无法预知法律的风险会降低研发者或者潜在研发者的研发意愿,导致更少的人参与人工智能的合法化研究当中。所以,如果不具有犯罪故意目的而研发人工智能技术,原则上不应当苛责研究者,而研发者是否具有犯罪过失的主观罪过,取决于研发者是否未履行相应的注意义务。在生产环节,对生产者苛责是具有可行性的。生产环节处于中间环节,它影响研发方向,同时亦能分散人工智能产品事故导致的责任负担。对使用环节承担风险控制义务,对研发具有一定监管义务。人工智能生产者的义务判断,以人工智能产品是否达到投放市场的安全标准为标准,生产者应当从人工智能产品的算法安全、数据安全、产品缺陷等方面进行判定,检视算法是否具有侵害风险。例如算法歧视等。针对算法,生产者应当建立算法审查制度等应对措施,保障数据安全。例如人工智能产品是否涉及窃取数据、非法加工使用、公开数据等数据安全管理、技术风险。对于正当获取、收集、利用的行为应当被视为合理合法行为。检视人工智能产品本身,例如是否存在设计制造等产品缺陷的,也应当根据客观要件与主观要件进行产品责任的归责。如若生产者未尽到安全监管义务,可以考虑使其承担绝不履行安全管理义务的刑事责任。如前所述,人工智能是人类的工具。那么人工智能进入使用销售环节,可以认为其是产品。产品发生事故,根据侵犯程度的不同,判断责任主体承担侵权责任还是刑事责任。如果在使用环节造成了侵权责任,则根据民法典侵权责任编的规定进行处理。产品责任是特殊的侵权责任,如果人工智能产品存在缺陷,无论人工智能产品的生产者是否有过错,都应当承担侵权责任,另外,人工智能产品的生产者还有瑕疵产品的召回义务。如果在生产销售之初并未发现产品存在瑕疵,但是一段时间过后发现该问题存在,就应当采取召回等补救措施。导致他人人身损害或财产损害的,应当承担相应的赔偿责任。在一定条件下,人工智能产品的销售者也需要承担一定的侵权责任。销售者需要承担侵权责任的情形是,销售者因自身的过错使产品产生了瑕疵,该瑕疵造成了使用者或他人的损害,在该情形下,举证证明责任由受到损害的使用者承担。还有特殊情形是,销售者无法证明有缺陷的人工智能产品的生产者或者是提供者,因第三人过错导致的人工智能产品存在缺陷的,也可由人工智能产品的销售者承担侵权责任。其次,是侵权责任上升为刑事责任。在坚持人工智能主体否定说的前提下,被使用、利用的人工智能只是普通的犯罪工具,利用者是具有支配地位的核心、真正的刑事责任主体,应当承担直接的刑事责任。譬如利用深度伪造进行AI换脸与声色的高度模仿,进行诈骗的行为。利用具有深度伪造技术的产品的自然人就是诈骗罪的直接正犯。在现有犯罪名无法完全涵摄的情况下,可通过扩大解释等解释方法将利用、使用人工智能产品的犯罪纳入刑法的规制范围。例如将人智能网联汽车的驾驶系统解释为汽车的零部件,侵入更换智能网联汽车驾驶数据系统,可定为破坏交通工具罪。另外,还可以通过修改现有罪名的方式,使对人工智能归责范围的合理化。例如修改重大责任事故罪,增加人工智能研发者、生产者更多的注意义务。
如前所述,构成过失的前提是违反注意义务。人工智能责任主体(研发者、生产者、使用者)成立过失的依据来源于法律中施加的注意义务。注意义务的内容,根据人工智能事故的阶段性特征与生成的特点,可将加义务的内容分为安全研产义务与安全管理义务。具体包括:一则,算法、算力、数据是人工智能研发的三架马车,故应当对生产者、研发者在研发生产阶段对应的义务予以明确。生产者在研发者研发后,除了人工智能产品的外观硬件外,还有对算法安全、算力安全、数据安全、伦理安全的保障。伦理安全是不可忽视的安全研发的方面之一,保障伦理安全是为了使人工智能产品不触及道德底线与法律底线,若无相关的伦理检视,可能会发生伦理歧视等后果。例如Tray发表的歧视性话语。人工智能的研发者应当将涉及人工智能的相关法律法规以及伦理标准原则贯穿研发的全过程,从源头上防止风险的发生。生产者在生产之前也应当对人工智能的伦理进行审查,遵循《新一代人工智能原则》《新一代人工智能伦理规范》等倡导。在生产过程中,生产者应当充分质检,并尽到风险告知义务,提示、告知使用者注意事项,保证使用者的知情、同意的履行,防止知情同意瑕疵而对使用者造成损害。二则,人工智能产品进入流通领域后,研发者、生产者对人工智能的支配力可以延伸至产品使用领域。由此,在人工智能研发者、生产者具有支配力的产品使用领域产生的刑事责任,应由人工智能产品的研发者生产者承担。所以研发者、生产者应继续履行安全管理义务,研发者、生产者要维持人工智能产品的智能系统的安全运行,实时维护系统,防止出现故障与缺陷以及非法侵入、攻击的危险,保障系统的有效运行,对人工智能产品的预测外行为进行及时矫正,更新算法模型。同时对人工智能产品在使用过程中的数据应尽安全保障义务,避免数据安全缺陷而造成人工智能安全事故。基于发展兼顾安全原则,不应轻易扩大人工智能过失的范围。虽然将涉人工智能的过失行为犯罪化可以实现严密化的安全保障目的,但人工智能作为新兴的科技需要更多的发展空间,对人工智能领域施加过多的义务,一切的人工智能安全事故都归责于人工智能的研发者、生产者,将打击人工智能领域创新的积极性,导致技术产生负面效果。故应当对被允许的风险作抽象理解,扩大被允许的风险的涵盖范围。在人工智能产品的社会效益大于其所具有的危险性之时,该危险性便是被允许的。即使造成了一定的法益侵害,只要在一定限度内,就可以被接受。一定限度是指人工智能的责任主体在履行上述注意义务后,人工智能产品仍发生事故,产生危险,那么该事故不由人工智能的研发者、生产者承担。同时,在信赖原则的指引下,人工智能产品的生产者、研发者在由被害人或第三人采取不适当行为而造成后果而免除承担刑事责任。通过信赖原则排除人工智能研发者、生产者的刑事责任需要满足以下条件。一是行为基于社会合理性而信赖他人将实施适当行为;二是客观上存在信赖他人采取适当行为的条件状况,行为不违法。所以在人工智能的研发者、生产者尽到了注意义务,无信赖原则的例外发生时,人工智能研发者、生产者等责任主体采取的行为,例如适当使用、创新研发的相关行为应当被认为缺乏构成要件行为的危险性,不追究过失责任。例如在高阶智能网联汽车道路测试当中,汽车生产者在规定的道路上围蔽道路驾驶,并采取了充分的提示警告措施。若有其他无关的第三人进入并造成了人身损害或财产损害,生产商也因信赖原则而免除过失责任。“汽车只是暂时的,而马车才是永恒的”并不能成为人工智能刑事主体肯定说讽刺人工智能刑事主体否定说保守的理由。坚持人工智能刑事主体否定说,反对增设新罪,构建新的刑法体系,是对刑法谦抑性的坚守,以及对整体法秩序的维护。有学者基于人工智能刑事主体肯定说的观点之下,提出构建非国家垄断的刑法体系,以应对人工智能的归责难题。这个路径将导致严重后果的产生:权力滥用、司法不公以及法律权威受损。在一切事实还未有明朗的前景之时,刑法应当保持谨慎的态度,守好最后一道防线。往期精彩回顾
唐风云|暗黑模式规制:从个人信息保护到数字平台治理于弋涵|论智能产品用户生成数据的权利配置——基于不完全契约理论邢雅清|网络暴力侵害人身权益视角下人格权侵害禁令制度的理性培育熊中文|数字时代个人信息民事公益诉讼:生成逻辑、实践图景与优化路径
上海市法学会官网
http://www.sls.org.cn