刑事主体是以“权利能力”“行为能力”及“责任能力”为基础进行搭建,“强人工智能”能否独立为刑事主体,需要从“刑事主体”的内涵本身出发对其进行辨析,将其放到“人”或者“单位”的语境下讨论,都是属于争议靶点的偏离,无助于问题的实质性解决。人工智能作为风险社会的产物仍然处于产品的范畴之内,自由意志是成为刑事主体的基本前提,但仅有自由意志不能天然证明人工智能具有刑事主体的资格,仍需要从三种能力上进行评判分析。将人工智能视为刑事法上的主体并不具有可行性,甚至会导致刑法内部体系的混乱,但是漠视强人工智能带来的时代挑战,也为刑法治理观所不取。对于人工智能的刑事规制只能以产品责任为前提,构建“民事责任”+“行政责任”+“刑事责任”三位一体的责任归结体系有助于正确处理生成式人工智能的责任,在建构产品责任时应当充分考虑科技发展的限制与禁区。
随着信息技术革命的持续进行,强人工智能逐步进入了人们的视野,关于强人工智能如何进行刑法上的规制在学术界也产生了较大的争议,其中不乏真知灼见。但是对于目前的人工智能刑事规制的路径也尚未统一,“无论人工智能的能力有多强,有多接近人,但毕竟不是人,不能与人相等同,现有法律直接将其作为“人”来调整在逻辑上是悖论”;反对者以“强人工智能”不具有“人”的属性对其进行批驳,认为“强人工智能属于机器”,赞成者认为“强人工智能”在某种程度上具有了“人”的意识,所以应当作为刑事主体予以规制,但是这种讨论尚未在同一语境下进行探讨,难免使得争论的靶点有所偏离。赞成者认为应当从刑事主体本身的角度出发,而非从“人”的角度进行衡量。质言之,双方争议的焦点在于:“强人工智能”能否作为一种独立于“人”和“单位”之外并且与其两者并列的新型刑事主体,因此,将“强人工智能”放到“人”或者“单位”的语境下去探讨,实则是对话的偏离,正如在刑法规制之初并未将“单位”考量在内,而“单位”并不具有“人”的属性,所以“单位”才可以成为独立的并且与自然人并列的刑事主体,如果将“单位”放在“人”的语境下考量是否应当将其作为刑事主体,那无异于陷入了“稻草人的谬误”,属于位阶错误的混乱。因此,从刑事责任主体本身的法理对生成式人工智能进行分析,并且提出切实可行的建议是当前刑法关于“生成式人工智能”未雨绸缪的理性思考。
刑事主体的内涵会随着社会发展而进行扩充和丰富,在“单位”具备了刑事犯罪主体资格之后,也有观点将“国家”作为犯罪主体予以对待,种种迹象表明刑事主体内涵并非是封闭不变的,这也为“强人工智能”可以作为刑事主体提供了方法论上的可能。方法论与价值论是事物证成的不同轨道,能否赋予某一客体主体地位并不是仅仅取决于方法论的证成,还有待从主体理论自身的价值内涵进行评判,刑事主体资格的价值内涵包括“权利能力”“行为能力”以及“责任能力”。任何成为刑事主体的事物必须经过以上三种要素的考验和评判,方法论的可能为某一事物可以成为刑事主体提供了桥梁,这三种要素为某一事物可以成为刑事主体提供了实体内涵。
“权利能力”是成为法律主体的一个基础,缺乏“权利能力”的事物无法享有法律主体的资格,充其量也只能成为一种客体。因此,承认每一个人都具有“权利能力”是现代社会的进步,这也是“人类中心主义”的必然选择。对于人主体之外的事物赋予法律主体资格不仅取决于社会经济发展的需要,更在于在伦理上人们是否能够接受这一主体的存在,动辄将某一新生事物赋予“人”的资格不仅无助于社会发展的进步,甚至会形成对于“人”的尊严和人格的亵渎。
人工智能发展之初就是为了帮助人们认识自然和改造自然,其发展的初衷便决定了其只能作为客体资格的存在。无论是人的角度,还是法人的角度,客体与主体之间仍存在着难以跨越的鸿沟,无视鸿沟之间的差别,贸然地赋予人工智能以“权利能力”会形成难以调和的矛盾。首先,从“类人”的角度来看,赋予人工智能“权利能力”意味着将其作为“人”去看待,在同为“人”的资格前提下,真正的人就缺乏了主导性。因为支配关系只存在于主体和客体之间,那么同为法律主体,两者之间便无法存在着“支配”的关系,而人工智能的存在也就违背了当时发展的初衷。其次,从“类法人”的角度来看,法人是具有自我财产和自我意志的机构,法人以其独立的财产对自我的行为承担无限的责任,而在法人的内部机关,存在着以自然人为基础的意志决定机构,基于代理关系,法人机关内部的决定应当由法人承担责任,但是在作决策之时不存在非实体性事物的垄断。而在人工智能的场合下,其作决定的基础是数据的搜集与算法的运用,在整个决策过程中不存在人的意志的干涉,是一个纯粹技术性决定。虽然人工智能与法人在外部形态上都存在一定的行为,但是两者之间的内核并不一样,不能进行简单的类比,进一步而言,法人虽然可以作为犯罪主体,但是同时也可以作为被害主体,我们在探讨着人工智能致害的情况下,是否也应当考虑人工智能被害呢?如果仅存在人工智能致害而不存在人工智能被害的情况,那么这时候探讨人工智能成为刑事主体是否还具有意义?如果存在人工智能被害的情况,那么人工智能的权利如何维护?这并非是一个不证自明的问题,刑事主体资格一方面是可以成为犯罪主体实施犯罪,另一个层面便是可能会遭受犯罪行为从而导致自身权益的损害。正如“单位”的主体资格,我们承认“单位”可以实施犯罪,同时也认可“单位”成为刑事被害人的资格。人工智能设置的初衷便是服务于人,在人工智能不具有独立财产之时,人工智能权益的受损对于人工智能本身的保护缺乏实际的意义,只能保护人工智能背后的“所有者”,以“法人”为例,我们不承认“法人”背后存在“所有者”,“法人”本身就是所有者,当“法人”的权益受损之时对其进行保护具有独立的法律意义,而对于人工智能的保护,终归也只是为了人工智能背后的“所有者”。
人工智能赋权背后存在着难以解释的悖论,在无法赋予其权利的情况下,将其拟制为法律主体违背了权利义务的一致性原则。因此,在权利阙如的情况下,人工智能也仅仅是工具性的存在,工具属性本身不具有主体性因素的加持,这就决定了人工智能无法脱离人类而独立存在和运行,所谓的人工智能独立行为只是事先设定程序的事后体现,人工智能运行的机制类似于法律推理方法中的“三段论”:首先,由研发人员为人工智能设定条件和格式;其次,由外界因素对人工智能施加影响;最后,人工智能根据事先设定的条件对外界因素进行衡量和判断,作出符合当初设定的行为。整个过程类似于一种“涵射”,而人工智能仅仅是对外界条件的分析和输入,一旦研发人员改变了“大前提”,那么无论如何,人工智能也丧失了此前反应机制的前提条件。
因此,人类可以为了自我的生存与发展对人工智能进行调整,而一旦调整人工智能便就丧失此前行为的基础,这种调整本身就是使用工具的一种方式。需要注意的是,人工智能作为工具与其他辅助性工具存在不同,它是以借助数据与算法来进行智能辅助的,但是在伦理情感上与其他工具并无二致,非生命性工具本身不具有任何的情感价值,是一个价值无涉的实体,现代刑法基本理念充斥了大量的价值性因素,纯粹的事实判断在现代刑法理念中的地位或许会随着时代的发展而逐渐降低,对于缺乏伦理情感的人工智能,其作出的判断仅仅是出于事实上的数据与逻辑;而在情感道德伦理层次等方面,人工智能尚无能为力,刑法对此似乎并没有太大的发挥空间,将其视为刑事主体难免有些“对牛弹琴”。
“行为能力”是行为人可以根据自我的意志承担权利和履行义务的能力。人工智能是否具有“行为能力”直接影响着其作为法律主体能否独立实施法律行为,而大多学者所论述人工智能能够成为法律主体的主要理由便是人工智能具有“自由意志”,即人工智能可以根据环境的变化作出自我的决断,但是这种论证缺乏体系性,而且忽略自由意志决断的前提要件,存在以外在形态倒推内在本质的反逻辑的现象。自由意志的过程体现为人在行为过程中具有抉择的权利,即人可以根据现有环境依据自我的意志选择做或者不做,人工智能在行为过程中不具有此种能力,其本质是算法与数据以逻辑的形式所体现的,每一个行为都是事先在程序当中设定,程序设定之初便决定了人工智能后续的行为走向。
刑法是一个行为规范的体系,其不仅仅是法官的裁判标准,更多的时候是在指引着人们的行为;如果人们遵守行为的指引而不违背刑法的规定,那么就是适法行为,这种适法理念将根植于人们的信念之中,最终形成法治理念。而“行为能力”的基本前提就是行为人对于规范的理解,规范不是简单的字意解释,而是立足于现代人类社会共存价值的基本前提之下。规范是对于社会秩序一种维持的手段,当利益存在冲突之时,价值衡量的作用便日益凸显,尤其在法定犯时代,这种利益的冲突更为强烈。对于这种冲突,仅仅依靠功利主义的思考恐难以解决伦理性价值回归的难题,因此,现代刑法理念需要更多价值性因素的植入。人工智能是一个由数据和逻辑作为主导的事物,本身的价值无涉性没有给情感伦理因素介入的空间,因此,在理解规范的情况下,人工智能只能从字意方面进行逻辑性的判断,人类社会规则的形成并非一朝一夕,也并非是指令的汇集,而是人类在长期共存的背景之下,根据各方利益冲突作出的调和,这种调和充满了价值性因素的衡量,这也正是“天理不外乎人情”的渊源所在,在涉及价值性选择的问题上,由于人工智能缺乏人类社会共存感,决定了其不可能融于人类共有秩序之中。
而这些指令到达人工智能那里,仅仅是一个指令而已,正如编码运作的模式那样,它只会按照对外界信息的接收情况,依据此前设定的程序作出反应而已,它并不会理解规范背后的价值内涵,在缺乏规范理解能力的情形下,作出的行为仅仅是一种纯粹性的事实判断,缺乏社会秩序“自我认同”意志的本质性要素。在不能理解和接受现代刑法体系的价值理念的情况之下,刑法对此或许也是爱莫能助,正如“洞穴奇案”中的辩护那样,在“文明”无法触及的地域,现代法律体系对此也无能为力,试图期待脱离文明秩序的人仍然对于文明领域之内的法律价值内涵存有认同是一种不切实际的妄想,作为“行为能力”的核心要素——“自由意志”也就当然成为无源之水、无根之木,主张人工智能具有“行为能力”,或许仅仅看到了人工智能做出的外在行为,但是忽略了其行为的实际内涵是出于一种价值无涉的纯粹性事实,法律与文明并没有足够的理由期待人工智能可以理解和接受现代法律体系所蕴含“人类共存”的价值性内涵。
首先,人工智能所作的决定并非是根据自我的历史资料,而是根据研发人员所输入的编码与程序,以逻辑的形式展现的外在表现,纯粹的形式逻辑最大的特点在于可预测性,即便人工智能当下并没有作出任何决定,人们可以从逻辑出发预测人工智能作决定的轨迹,据此判断人工智能决定的走向。因此,人工智能仅仅是人工智能,它无法根据历史资料进行未来的选择,更无法突破现有的逻辑成为未来不可知的人工智能,一旦研发人员停止输入历史资料,那么人工智能就丧失了判断和行为的基础,质言之,人工智能无法将自我投向于未来,它只能存在于当下。其次,当存在改变与不改变的两种情况之下,一旦人作出某一决定,另一个未作的决定便会退出人们的视野,但是无法否认的是,这是人们根据自我意志抉择的结果,未选择的方向也是基于自我意志的放弃,在某种层面上也可以理解为:“不为也是一种为”。但是当以编码与程序作为人工智能的神经中枢之时,其必然决定了无法选择的局面,其外在表现的“为”或者“不为”都不是选择的产物,而是被选择的结果,换言之,逻辑一旦确定,选择的方向必然随之明确,如果超出设定的逻辑而作的决定并非是基于自我的意志,而是在于程序的错乱,以程序错乱的结果作为具有独立自我意志的证成原因,显然存在逻辑错误。
当智能机器人成为一种由程序设计、编制而成并由此产生深度学习能力且能够自主思维、自发行动时,应当将智能机器人作为刑事主体予以对待,其主要理由便是智能机器人具备深入学习能力。但是“深度学习能力”是否就等同于“自由意志”并非是不证自明的,仍需要探究这种学习能力的本质是否使得智能机器人具备了自由意志,如上所述,刑法中的犯罪主体是以相对的“自由意志”为前提的,而人工智能缺乏“行为能力”的核心要素,其所作的决定仅仅是一种算法与程序外在表现,研发人员的伦理情感因素直接影响着编码与程序的运行,在面对外界因素刺激的时候,人工智能所作的决定就是研发人员通过编码将自我意志移植到人工智能中的体现,因此,在某种程度上可以将人工智能的意志视为研发人员的意志。研发人员以实现犯罪之目的而设计的人工智能天然不具有独立的地位,本质上是研发人员的附庸,但是如果此时将人工智能犯罪视为自我意志的实现,实际上是不符合基本事实的。
“学习能力”不能简单地作为成立刑事主体的实体要件,如果智能机器人按照研发人员的编码程序去运行,便无所谓学习能力,只是一种计算能力的体现,如果智能机器人突破这种编码进行自我的决定,究竟是编码程序运行错乱的结果还是具备了自我的意志,目前尚无证据予以证明。不过笔者认为,可以从现代医学的角度入手,现代医学对于人的神经学和大脑学虽然取得了很大的进步,但是目前仍然无法透彻地研究人类的神经与大脑,尤其涉及神经与行为之间确切的具体联系,现代医学还处于一种探索阶段。即便在刑法学内部也存在着“自由意志”与“非自由意志”的争论,因此对于人类行为本身的运行原理尚存疑的情况下,贸然地认为智能机器人具备人的属性缺乏现代医学上的支持,这也是以结果倒推原因的因素所在。
“责任能力”是行为人承担责任的根据,无法在道义上进行谴责的行为人,一般认为不具有“责任能力”。人工智能所作的决定是以二进制为基础,利用数据和逻辑进行表现的,以技术作为基础难以认定人工智能存在思想上的偏差,重构人工智的刑罚措施是对现有刑罚体系的歪曲,不具有可行性,试图以解构、摧毁等方式进行处罚难以实现刑罚的功能。
刑法将自然人的刑事责任能力分为三种不同的档次:第一档次是无刑事责任能力;第二档次是限制刑事责任能力;第三档次是完全刑事责任能力。如果将人工智能作为一种刑事主体,是否面临着同样的区分呢?笔者以为,如果认为人工智能存在独立的自由意志,那么必然会存在对应的三种不同的档次,但是这在限制刑事责任能力与无刑事责任能力中,人工智能的辨认能力和控制能力存在衰减和丧失,那么此时人工智能所做的侵害行为是否可以依据现行刑法的规定减免刑事责任呢?质言之,我们是否可以根据人工智能的自由意志将其责任能力也区分为无刑事责任能力、限制刑事责任能力和完全刑事责任能力呢?对于无责任能力和限制责任能力的人工智能所做的危害行为,是应当归责于研发人员的监管呢?还是归咎于人工智能本身呢?
“一切风险的防范措施几乎总是引发其他风险。”在人工智能根据自由意志作出的行为符合人们的预期之时,人工智能的意志就屈服于人类意志之下,那么是否还有必要区分人工智能是否具有自由意志?如果人工智能超出人们的预期做出了其他的侵害行为,那么此时人工智能的自由意志是陷入了混乱,还是没有陷入混乱的故意为之呢?如果陷入了混乱,那人工智能是否属于限制刑事责任能力呢?如果没有陷入混乱,那么如何对此进行证明呢?是以人工智能侵害行为作为处罚根据,还是以人工智能侵害危险作为处罚根据呢?现有的人工智能法学理论难以对上述问题进行体系化的回应,其本质就在于将不具有“自由意志”的人工智能牵强附会于刑事主体之上,本就有欲盖弥彰之嫌。
“刑罚作为国家对犯罪行为的否定评价与对犯罪人的谴责的一种最严厉的形式,当然地对犯罪人具有身体的、精神的、财产的剥夺性、限制性痛苦。”以报应刑为主的刑罚观,主要是以让行为人感受到刑罚的痛苦从而建立忠诚于法为目的。但是对于人工智能而言,其是否感受到痛苦与是否建立法的忠诚感之间并没有实质性的关联。质言之,人工智能是否具有恐惧感尚存疑虑。其次,即便人工智能具有恐惧感,但是人工智能所作的决定是依据数据与逻辑为基础的,在数据摄取与逻辑程序不变的情况之下,人工智能是否会纠正自我的做法将大大存疑。因此,如果将人工智能作为刑事主体对待,现有的刑罚体系或许面临着重新建构的命运。将人工智能作为刑事主体对其设计刑罚措施,或许也只能从删除数据、修改程序、彻底销毁等手段进行构建,实际上超越编码所设定的程序进行所谓的独立行为只是编码错乱的情况,在编码错乱的情况下需要对此进行修正,而一旦漏洞被修正,人工智能则恢复了正常,以现有的程序不可做出此前的行为。
“在判处刑罚的情况下,法官对再犯罪可能性的预测不可能是绝对准确的,犯罪人的行为态度、规范意识等也是不断变化的,因此,刑法特别规定了减刑制度与假释制度。”而这些刑罚执行措施对于人工智能所发挥的作用似乎是有限的。质言之,修理人工智能的目的在于恢复其正常使用,但是此种所谓新的刑罚措施是否具有真实意义是值得怀疑的。大众一般很难将此类措施认定为治理犯罪的刑罚措施,这种重构刑罚措施的走向便是刑罚发展的异化现象,只是以保留刑罚之虚名来实现人工智能的治理,实际上已经远远偏离了刑事法的范畴,此种治理与其说是一种刑罚治理,不如将其称之为一种技术治理手段。
刑罚通过自身的运作实现社会治理的效果,其目的在于倡导人们遵纪守法。而所有的前提都在于具有自由意志的行为人能够认识自我的行为及其行为的社会意义,并且在了解刑罚的严重性之后自觉地选择适法行为。对人工智能适用刑罚措施是否具有同等的意义呢?人工智能所做的行为不具有可选择性,只要程序尚未更改,在同等条件之下,人工智能必然会做出相同的行为,而刑罚的功能恰恰在于通过法的教育,使得行为人在同等条件下做出适法的行为,否则就是刑罚预防功能实现的落空。那么此时刑罚的特殊预防功能又谈何实现。
强人工智能从刑事主体内涵的辨析来看,难以认定强人工智能具有刑事主体的资格。但是笔者认为,从反向的角度进行思考或许会对这一问题有所裨益,即便按照支持强人工智能可以成为刑事主体的观点,也不能漠视这种观点所带来的连锁反应。质言之,如果将强人工智能视为刑事主体,随着这一逻辑线的发展,将会引发刑法体系的何种问题也值得我们反思。
将人工智能作为刑事主体予以对待或多或少都有着积极刑法观辩护的身影,在新生事物对于秩序产生威胁或者影响之时,便将其作为刑事主体予以规制或许是最为便捷的做法,但是却不是最为合理的行径,刑法观针对的仅仅是人的行为,而人工智能作为风险社会的产物,是否需要刑法予以治理则反映了治理背后不同理念。将“强人工智能”视为刑事主体,那么我们现行刑法的理论价值基础是否能够沿用,是值得怀疑的。本文在一开始就明确提出“人工智能”非“人”,笔者并非主张对于“强人工智能”进行肆意地打击。从人工智能发展的初衷来看,即便是强人工智能也是为了服务人类而存在的,在人类和“人工智能”面前,刑法的价值构造不容我们犹豫而必须选择保护“人”,那么此时将“强人工智能”视为一种刑事主体,是改造我们现行的刑法观以适应这一新生事物?抑或是将其独立为一种新型的刑事治理观?如果选择了前者,那刑法学者苦心构建数百年的刑法基石就将荡然无存,如果选择了后者,那这种治理观是否还符合刑法本身的价值选择又是存疑的。
刑法对于犯罪的规定是以“结果犯”为中心,质言之,原则上只有法益被侵害时,刑法才有介入的空间。如果将“强人工智能”视为刑事主体,那么对于该部分犯罪的建构是应当以“结果犯”为中心,还是以“危险犯”为核心?笔者以为,从人工智能设置的初衷来看,一旦发现人工智能对人有侵害的风险,就应当采取相应的措施,如果等到造成损害之后刑法再行介入,就势必会导致“危险犯”的大量激增,但是这种激增是否符合刑法治理观呢?如果采取了这一治理趋向,那我们对于刑法社会治理的效能将会放到前所未有的位置,或许会折损刑法的生命力。
刑事诉讼法关于证明犯罪的标准是“排除一切合理怀疑”,这种严苛的证明标准也必然造就了部分案件难以被证明,一旦将“人工智能”视为刑事主体,这种证明标准是否需要沿用,也是值得我们思考的问题。“风险犯”相较于“结果犯”而言,本身由于极其抽象而导致证据搜集的难度较大,“未决的结果”倒逼刑事证明标准降低。由于人工智能的附属性,在伦理上难以将之放在与“人”同等的地位,那么刑事诉讼法的证明标准就未必要继续沿用,因为在人工智能致害案件中,往往会因其知识超越常人,而导致我们难以适用“排除一切合理怀疑”的刑事证明标准,所以,如果沿用该标准,则势必会影响到人们的正常生活。
人工智能因缺乏“权利能力”“行为能力”以及“责任能力”而最终无法实现其“人格”的独立,将其视为刑事主体不具有可行性,但是漠视科技发展而带来的潜在危险为刑法治理观所不取。因此有必要对于我国目前存在的产品责任进行梳理,对于人工智能造成的侵害性事件对照目前的产品责任进行划分,形成“民事责任”+“行政责任”+“刑事责任”的三位一体性归责路径,这或许对解决目前人工智能侵权所造成的困境有所裨益。
产品质量法关于产品责任的规定采取的是一种严格责任的立法例,只要产品造成了危害结果,产品生产者就应当承担责任,但是有三个豁免情形,其一是未将产品投入流通;其二是产品投入流通时,引起损害的缺陷尚不存在的;其三是将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。人工智能作为一种新型科技产品,当然也应当受到产品质量法的约束,其技术的先进性和科技发展的不可预测性给予了人工智能生产者规避责任的空间,当人工智能造成了侵害后果之时,生产者是否能以该项技术属于“产品投入流通时的科学技术水平尚不能发现缺陷存在的”主张豁免,这就对于传统的产品责任的归责形成了一种冲击,如果采取以往的产品责任归责原则,那么对于消费者而言是否会存在一定的不公?如果生产者以此为由主张刑事责任的豁免,法律是否应当负其正当性呢?这些都是值得我们思考的问题。笔者以为,人工智能以科技产品作为其独立特点,应当赋予其更大的责任和义务,因为研发人工智能本身就属于前沿科技内容,以科技水平不足以发现缺陷作为自身产品致害的辩护理由难免会有“垄断性”的嫌疑。同时,应当建立科技发展基金和投保制度,对于因使用前沿科技产品造成侵害和损失,可以利用保险进行补偿,以分散风险。
科技的发展并非是百益而无一害,衡量科技发展的标准不在于危害的量,而在于危害的质,如果我们对于某种科技的发展无法承担其不利后果,即便这种科技在某些方面给人们带来极大的便利,也不能贸然发展,而是应当建立研发禁区,“非法编辑人体基因”正是此方面的例子,即便“基因编辑”可以治愈某些疾病,但是难以保障是否会出现更大的疾病或者不利,那么这种技术就应当被禁止。此外,目前各国对于克隆技术已经有了明确的限制,对于克隆人更是严格禁止,从伦理学的角度而言,“人无法创造人”,更何况,这种研发是否会颠覆人类社会也是值得怀疑的,因此对于研发具有自主意识的人工智能也应当建立禁区。
随着《生成式人工智能服务管理暂行办法》的出台,关于生成式人工智能的行政规制也得以正式构建,但是该办法并未具体规定人工智能生产者的行政责任,而是较为笼统的规定,即提供者违反本办法规定的,由有关主管部门依照网络安全法、数据安全法、个人信息保护法、科学技术进步法等法律、行政法规的规定予以处罚;法律、行政法规没有规定的,由有关主管部门依据职责予以警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停提供相关服务。此种规定并未从本质上对人工智能的生产者做出新型而独立的责任划分,而是依据传统的法律归责要件进行调整,笔者以为行政责任的划分应当以人工智能研发的禁区为轴心进行展开,传统的产品并不能脱逸于现有的法律责任,新的研发空间或许会对传统产品的行政责任造成冲击,并非所有科研的进步都会对人类产生积极的影响,构建人工智能研发禁区是建立人工智能行政责任的趋势。
刑法目前没有关于人工智能刑事责任的规定,这也是部分学者主张修正刑法,将人工智能作为刑事责任主体对待的重大理由。但是笔者认为此举不妥,刑法关于“生产、销售伪劣商品罪”一章中,对于产品的刑事责任作出了规定,根据客观实际情况对于刑法条文作出符合时代的解释也是刑法学者的宿命与责任,如果生产者明知人工智能系劣质产品仍然生产销售的,应当以本罪追究,并无疑问。但是笔者认为,由于人工智能科技发展的特殊性,目前无需改动关于故意生产、销售伪劣产品罪,是否可以增设过失生产伪劣产品罪值得探讨。由于产品是服务人类更好地生活,人工智能作为新型的科技产品,必然要赋予生产者更好的注意义务,当存在违背注意义务而导致伪劣产品的出现之时,理应承当相应的刑事责任。需要注意的是由于市场经济自身的调节作用和经济发展趋势的激励走向,针对一般产品的过失生产不应当过于苛责,人工智能作为一种新型的科技型产品,需要从技术上进行规制,作为高端技术产品,人类无法承担人工智能所带来的损害后果,因此在刑法中考量增设“过失生产伪劣产品罪”,针对背后的生产者、研发人员赋予较高的注意义务或许有助于纾解人工智能发展过快而安全性考虑不足的难题。
“当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控。”将风险社会背景之下的人工智能视为刑事主体,不具有现实性,存在研发人员逃避责任之嫌,将本应当由研发企业所承担的责任转嫁给无辜的公民个人。以编程代码作为自由意志的基础与现行刑法理念存在本质性难以调和的冲突,重构刑罚体系已经严重偏离刑法发展的轨道,实为刑罚改革的异化,难以起到特殊预防作用。即便按照支持者的观点,将“生成式人工智能”视为刑事主体,那么刑法以“人”为中心的基本原则和理念将会受到前所未有的冲击,刑法内部及刑事诉讼内部体系将彻底被颠覆。质言之,将人工智能不作为刑事主体是符合目前实际的做法,有利于正确区分责任。推动人工智能投保强制机制的建构可以有效分散技术发展所带来的不可知风险,反思和建构人工智能研发和发展的监管制度有利于将人工智能法律的研究回归理性轨道,以“产品责任”为中心对生产、研发人工智能产品人员进行规制,并且以伦理学的基本视角设置研究和开发禁区或许不失为一种良策。
周芷妍|数字时代法官预判确定性与认知偏差控制
朱舒予|我国短视频平台版权治理义务体系之重构
目录|《新兴权利》集刊2024年第1卷
王镕洪|生成式人工智能背景下个人信息保护的困境与破解
徐宇翔|生成式人工智能发展背景下的金融消费者个人信息保护问题研究
杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对
上海市法学会官网
http://www.sls.org.cn
特别声明:本文经上观新闻客户端的“上观号”入驻单位授权发布,仅代表该入驻单位观点,“上观新闻”仅为信息发布平台,如您认为发布内容侵犯您的相关权益,请联系删除!