人工智能主体间性与刑事责任分配

commentaires · 27 Vues

本文转自:法治网□前沿聚焦□孙万怀目前,人工智能刑事责任的探讨是在人工智能的主体性问题尚未充分论证的前提下展开的。仅仅因为其智能展现了自发性乃至自觉性,理论就开始尝试完成穿越和贯通,直接讨论主

  本文转自:法治网

  □ 前沿聚焦

  □ 孙万怀

  

  目前,人工智能刑事责任的探讨是在人工智能的主体性问题尚未充分论证的前提下展开的。仅仅因为其智能展现了自发性乃至自觉性,理论就开始尝试完成穿越和贯通,直接讨论主体性归责可能或标准。实际上,最为关键的仍然是主体是否可以转换、人工智能是否具有自由意志以及自由意志的基础意义。只有解决了这些问题,归责才成为可能。

  人工智能责任主体性的哲学辩证前提

  (一)主奴辩证法何以实现

  黑格尔提出的主奴辩证法理论,成为主体间性的理论支撑。主体虽然在形式上强调主体性,但实质上不再具有主体地位,成为被绝对理念所操纵的伪主体,由此形成了主奴地位的辩证关系。于是,笔者言及的第一种类型的三重关系悄然出现,即主人、奴隶与作为欲望对象的物。主人有欲望,但必须通过奴隶对物的“加工改造”才能满足。而奴隶则因感觉到对物的支配而实现了所谓的自由,从而“自由”地接受了对关系地位的认可。据此似乎可以论证人工智能的独立性。但是,拉康则提出了镜像阶段论:通过客体的反馈,主体才能感觉到主体自身的存在。在一个特定的奴役关系中,他者的存在正是为了反射性地反指主体的建构。镜像理论给予的启发在于人工智能只不过是一个作为镜像的工具。工具的迭代不过是一种现象,并不能表达为脱逸主体而独立。当然,对于客体的独立性也存在另外一种方式的解读,即灵肉辩证法。“因为主奴双方在其非对称性承认中不具有彼此过渡到对方之中的辩证关系,取而代之的是主奴双方各自在其自身的‘自由’(灵魂)和‘生命’(肉身)诉求之间的悖反机制。发生于主奴关系中的双重‘灵肉辩证法’,因为一方面未导致主奴双方地位的反转,另一方面未导致主奴关系的解体,所以只是一种‘弱悖反’。”这一思考同样存在于人与人工智能的交互关系中。

  (二)人工智能是一种强悖反还是弱悖反

  在讨论人工智能具有或将具有自由意志时,人们不自觉中已经完成了对人工智能从工具到理性的转变。这与主奴辩证法并无二致。在主奴辩证法的争议中,奴隶是否能够成为真正的主人?对应到人工智能的法律地位,作为主体的人类同样也面临着如何理解作为“奴隶”的人工智能的觉醒。笔者认为,基于创造与被创造的关系,其实质上还是一种弱悖反,需要说明的有以下几点:第一,悖反客观存在。传统的主客体关系似乎发生了互换,最直接地表现为完成了机器的替代性和人的依赖性。而这以前恰恰被认定为作为主体的个体的独特能力,这种独特能力是自由的基础。弱悖反的存在带来了主体功能的弱化,带来了自主性的弱化,导致自我意识的弱化。第二,人的主体性并不会被摧毁。随着自我意识的弱化,从形式上看这是一种自由的替代,但是并没有改变“肉体”的依附性关系。这仅是主体自由实现的另外一种方式,这种方式在人工智能这一非本质的单纯认识中得到贯彻,并不存在两个并行的主体。也就是说,从主体间性的角度来看,主人的自我意识的消解并非单向的,其也在不断强化自身的独立能力,甚至通过改变相互之间的关系和表达形式来实现。第三,对客体异化的防范。在生成式人工智能出现之后,人们对于风险的警惕性有了极大提高。如果说以前的风险主要是产品责任的归责,则新的风险主要来源于客体异化。

  错误的邂逅——刑事责任与自由意志的关系

  一般认为责任主义的合理性是建立在自由意志理论之上的。由此,在讨论涉人工智能刑事责任基础前,首先面临的就是人工智能的自由意志问题。

  (一)自由意志之于刑事责任的虚妄

  如果说自由意志只是表达了一个选择的权利,则选择的依据是什么才最需要考察。如同一个人到咖啡馆,在选择拿铁、卡布奇诺抑或伯爵红茶之间存在一种意志自由,但这只是解决因果链条中的一个关联依据,选择的前提都并非自由。因而在实际生活中的责任追究,诉诸的并非意志而是因果链。

  (二)人工智能不具备与人类等同评价的自由意志——道德责任基础

  斯特劳森提出了反应性态度与客观性态度的界分。反应性态度是指人对他人对待自己的态度和行为所作出的一种自然反应,被人们认为其具备了自由意志。客观性态度类似于谈判和裁决时对规则执着的遵循,可能被认为其因为服从而没有自由意志。但是这种分类并非泾渭分明,“我们完全可以在道德中立乃至出于善意的情况下对人采取客观态度”。这就是斯特劳森的相容论观点。据此,人工智能的反应只能是一种客观性态度。在解决相容论矛盾的时候,沙普尔斯基提出了道德责任的被决定性,进而提出目前的道德仍然是一个半成品,当个人所遵循的道德责任只是“半成品”的时候,要求人工智能承担道义责任显然无法成功。

  弱悖反情形下刑事责任的分配

  (一)人工智能的自发、自觉与主体刑事责任消解的必然

  在涉嫌犯罪的情形下,谁应该承担刑事责任,是平台方还是用户,抑或人工智能。障碍在于系统自主学习的情形下,平台的义务标准和广度开始模糊不清。系统学习的“自主性”“自发性”的本质是主体间性的出现,于是笔者言及的第二对三角关系产生了(物自体的独立性):第一,质的责任要素,即“开发者(主体)—系统(主体)”的关系;第二,刑的责任要素,即“用户(主体)—系统(客体)”的关系;第三,量的责任要素,即“开发者(主体)—用户(客体)”的关系。由于人工智能的“自发性”,导致第一类与第三类的主客体关系不再那么清晰,开发者针对系统的违法性特征不再直接,开发者与用户的违法性关系也不明显,这时用户与系统的违法性关系成为核心的要素。其结果就是,作为相对方,对于系统导致的刑事危害,当用户对系统的作用大的时候,平台的作用力自然减弱,责任豁免或阻却也就成为可能。

  (二)刑事责任分解的价值平衡依据

  所有的跨越式发展都可能导致政策与实定法、现实理念与传统观念之间的紧张关系,进而可能导致恩吉施所归纳的法律的规范矛盾、价值矛盾以及原则矛盾的认知差异。就人工智能的发展而言,目前面临的主要是技术与规则的矛盾。对此,如果简单寻找一种类似于严格责任的归责方式,势必会导致对技术发展的桎梏,形成对新兴产业发展的阻遏。此时政策的考量与加持不可避免。同时,在民事责任探索成果相对确定化、类型化之后,刑事责任的讨论似乎才更有现实意义。这根本上是一个动态的价值平衡的问题。如果说前文论及的主体间性是一个主客体哲学关系的平衡,则此处言及的平衡是一个法律风险分配的平衡,即在保护数据主体的权益与发展人工智能行业间作出动态调整,显然刑事政策具有很大的作用空间。

  结语

  对于人类或者创造者而言,执着于讨论被创造者(人工智能)是否拥有自由意志似乎是一个宗教性或哲学性的悖论。人工智能的自发乃至自觉会给人类社会的秩序带来快速而重大的改变,也会带来一些困厄。但这种改变的本质还是对作为人的主体责任承担方式和程度的重新厘定。人工智能可能存在“意思”自由,但不可能存在“意志”自由。无法跨越“反应性态度”这一鸿沟,其“客观性态度”的反应特质决定了不可能实现根本的主体间性转化。

  (原文刊载于《政法论坛》2025年第3期)

commentaires