强人工智能体刑事责任承担之设想

来源:优秀文章 发布时间:2023-03-10 点击:

赵世琦

(河南财经政法大学 刑事司法学院, 河南 郑州 450000)

自1956年达特茅斯会议首次提出人工智能概念至今, 人工智能技术得到了飞速发展, 世界主要发达国家把发展人工智能作为提升国家竞争力的重要研究方向. 我国也在《新一代人工智能发展规划》中强调:人工智能是国家发展的重大战略机遇, 是构筑我国人工智能发展的先发优势, 是加快建设创新型国家和世界科技强国的重大战略机遇, 同时指出, 人工智能发展很可能对现有的法律造成冲击. 目前, 法学界已有许多关于人工智能体知识产权以及民事侵权责任方面的研究, 但对于人工智能体的刑事责任承担问题研究较少. 事实上, 随着人工智能技术的发展与普及, 人工智能体严重危害社会的行为也有发生, 这在刑法领域引发了学者们对强人工智能体刑事责任承担问题的讨论, 且出现了肯定说与否定说的分歧. 肯定说认为, 强人工智能体具备独立意志, 可以成为独立的刑事责任主体. 否定说认为强人工智能体仅是人类的工具, 刑事责任应由其背后的制造者或使用者承担. 笔者认同肯定说的观点, 本文将立足强人工智能体, 思考其是否可以成为刑事责任主体以及如何承担刑事责任的问题.

1.1 人工智能与人工智能体的本位确证

人工智能与人工智能体的内涵和外延差别巨大, 目前大部分研究成果仍以人工智能为研究对象. 概念是解决法律问题的基础, 明确研究对象才能使研究避免逻辑上、 内容上的错误.

人工智能的内涵可以分为两部分理解, 即“人工”与“智能”. “人工”是指由人类制造的而非自然界天然形成的, 但通常是自然产物的仿照物或复制品;

“智能”的含义包括具有认识和处理各种事物的能力、 运用所学知识认识和改造世界的能力. 因此, 人工智能是指人类根据自身的思维与意志制造出的模仿人类学习与决策能力的行为系统或科学技术. 人工智能体则是人工智能技术控制下的执行指令的有形载体, Shlomit Yanisky-Ravid等列出了十个属性用来识别人工智能体的表征:创新性、 自主性、 不可预测、 独立性、 合理性、 具有不断发展的学习能力、 效率、 准确、 目标导向、 自由意志的选择能力[1]. 笔者认为, 人工智能与人工智能体是技术与载体的关系, 人工智能为人工智能体的行为提供技术基础, 而人工智能体为人工智能的进一步发展提供实践经验.

事实上, 刑事责任应当由犯罪的具体的特殊个体承担, 而不应一概而论地由其背后的无实体的技术承担, 若由人工智能技术承担, 则既无合理性也无可操作性. 同时, 目前刑法规定的刑事责任承担主体皆是具有实体化的自然人与单位, 强人工智能体的刑事主体地位以及刑事责任的承担也应符合刑法对行为主体实体化的要求.笔者认为,人工智能体可以成为刑事责任主体并承担刑事责任, 而人工智能作为一种技术不应被纳入刑法规制范围.

1.2 弱人工智能体与强人工智能体的本位确证

我国学者根据人工智能的智能化水平的不同, 将人工智能体分为弱人工智能体和强人工智能体两类. 弱人工智能体在日常生活中十分常见, 如扫地机器人、 无人驾驶汽车等, 这些弱人工智能体仅专长于某一领域, 只能在编程范围内做出运行与决策, 从根本上说, 其实现的是编程者的既定目标. 例如Alpha Go无论下出什么样的步骤, 都是以编程人员事先输入的大量棋谱数据为基础的, 同时其仅擅长围棋领域的数据处理, 对于其他领域的数据处理并不擅长, 不能达到模拟人类思维的程度, 其仍然属于工具范畴. 而强人工智能体在各个领域内都具有和人类一样的学习、 判断和控制能力, 编程者只需赋予其学习的能力, 其便可基于独立意志在编程的范围外实施行为. 因具有独立的自我意识, 能像人类一样思考与决策, 即其行为实现的是人工智能自己的意志[2].

目前, 人类对人工智能技术的掌握处于弱人工智能阶段. 现阶段, 弱人工智能体的行为是根据研发者预设的程序进行的, 因此, 现阶段的人工智能体致人损害或者他人利用人工智能体致人损害的行为可以依现有法律规制, 如《中华人民共和国产品质量法》第四十三条、 《中华人民共和国刑法》中关于自然人利用工具犯罪的规定, 无需对刑事责任主体与刑事责任承担方式进行再研究. 而强人工智能体根据现有理论无法成为刑事责任主体进而无法承担刑事责任, 对于其是否可以成为刑事责任主体并承担责任的问题, 理论界存在较大争议, 故以下将以强人工智能体为对象进行论述.

在强人工智能的框架内, 对于强人工智能体是否可以获得刑事责任主体地位, 我国学者众说纷纭、 莫衷一是, 主要有肯定说与否定说两种观点.

2.1 肯定说

肯定说认为强人工智能体有成为刑事责任主体的必要性与可行性, 应该获得刑事主体地位. 强人工智能体在依编程获得学习能力后可以具备与人类无异的辨认能力和控制能力, 并且可以根据自己的意志实施各种行为. 此时, 强人工智能体实施的行为不能再被视为人类行为, 因其行为实质上是根据强人工智能体自己的意志所决策实施的, 进而实施的严重危害社会的行为也不应当由人类制造者或拥有者承担刑事责任. 刘宪权教授是刑事责任主体肯定说的代表人物, 他认为:人工智能时代对传统刑法理论有新的挑战, 刑法应当进行调整和完善, 赋予强人工智能体刑事责任主体地位, 并针对强人工智能体的犯罪行为设置具有梯度性的刑罚, 即删除数据、 修改程序、 永久销毁三种刑罚方法[3].

2.2 否定说

否定说认为强人工智能体无论怎样发展都仅只是人的工具, 表现的也仅是创造者或者持有者的意志, 不能获得刑事责任主体地位. 其一, 从刑事责任的角度看, 持否定说观点的学者认为意志自由是取得法律主体资格的前提, 而强人工智能体不具有意志自由, 即使造成了法益侵害结果, 也不具有刑事可罚性[4]. 他们认为, 强人工智能体的行为仍然在创造者、 使用者的掌控中, 依照程序行动不属于意志支配活动, 强人工智能体不能理解其行为的实质意义及违反法律的消极后果, 其行为本质上不可归于强人工智能体本身. 其二, 从刑罚的目的与具体内容的角度看, 对强人工智能体处以刑罚不具有可行性. 强人工智能体无法理解刑罚的意义, 也无法发挥刑罚的特殊预防和一般预防的作用[5]. 同时, 我国的刑罚分为人身刑和财产刑. 一方面, 强人工智能体并非有机体, 不存在生命限制, 无法适用生命刑;

另一方面, 对强人工智能体赋予财产权无现实需求基础.

2.3 否定说之批判

笔者认为, 否定说否认了强人工智能体的自我意志支配行为的能力, 并且否认刑罚对强人工智能体的规制作用, 存在两个理论误区.

2.3.1 否定说形式逻辑的不自洽

一方面, 否定说否定了强人工智能体具有意志, 若要论证强人工智能体不具有和人类一样的意志, 就要论证人类绝对拥有意志. 若主张人的意志决策具有不可预见性, 而非单纯的条件反射, 就要证明人类基于自由意志决策并实施行为的可能性. 但是如果人类的决策行为可以通过技术得到规律, 那么这种决策行为机制就不能完全说是自由的, 而是可能被机器所模拟的;

同时, 如果人类的决策行为机制无法通过技术手段证明, 那么就无法真正论证人类拥有自由意志而强人工智能体无法拥有自由意志. 另一方面, 我们对强人工智能体的定义是具备学习能力以及拥有自我意志. 否定说在提出观点时以具有学习和自由意志的强人工智能体作为客体进行阐述, 但在进行理论论证时, 则又转到传统的弱人工智能体上, 有偷换概念之嫌.

2.3.2 否定说实质理解的狭隘

一方面, 否定说认为“强人工智能体怎样发展也是人类的工具”, 笔者认为其理解是狭隘的, 用过去或者当前的科技水平否定了可能产生独立意志的强人工智能体的可能性, 将人工智能体的刑事风险仅固化于人类利用强人工智能作为犯罪工具, 忽略了强人工智能体自身的刑事风险. 但从理论上看, 随着算法以及深度学习技术的发展, 强人工智能体的认识能力和控制能力可能达到人类水平甚至超过人类水平, 完全可以独立实施危害社会的犯罪行为. 另一方面, 否定说认为“刑罚对强人工智能体不能形成有效的恶害”, 对强人工智能体施加刑罚无法达到刑罚目的. 笔者认为, 这样的说法在逻辑上犯了循环论证的错误, 先以强人工智能体不能受到恶害为由否定其获得刑事主体地位的可能, 然后又因其无主体地位从而得到其不能受到恶害的结果. 与此同时, “对强人工智能体无法施加恶害”这一说法也是形而上学的. 如果说对于强人工智能体的定义即为具有独立自我意识, 其必然存在自我需求, 那么对其施加一种悖离相应需求的做法就是有效的恶害. 在这种意义上, 简单地对其限制用电需求或限制网络需求就可以做到对其施加恶害;

如果赋予其财产权, 甚至不需要指定特定刑罚, 现行罚金刑也可做到对其施加有效的恶害.

笔者认为, 否定说将强人工智能体犯罪的刑事责任归于制造者, 犯了刑法上因果联系的错误. 若将强人工智能体的责任归结于其制造者, 必须证明制造者与危害后果之间具有因果联系. 从某种意义上说, 强人工智能体与制造者之间的关系就如同人类的父母与子女的关系. 父母对于子女的犯罪行为不负刑法上的责任, 因父母与危害后果不存在刑法上的因果联系, 且符合责任自负的刑法原则. 这样的论证过程也应同样适用于强人工智能体, 制造者仅赋予其学习能力, 学习过程是强人工智能体独立自行完成的, 故在强人工智能体发展过程中的行为是无法预见和控制的. 因此, 强人工智能体的犯罪行为与制造者无刑法上的因果关系, 若由制造者承担法律责任, 将违反责任自负的法律原则.

3.1 强人工智能体成为刑事责任主体的必要性

在当前人工智能技术仅处于弱人工智能的阶段, 就有弱人工智能体危害社会的事件发生. 如微软公司在2016年研发出了名为tay的智能聊天机器人, 技术团队设计之初并未对机器人的交流内容进行预设, 而是通过大量的对话使其获得与他人对话的能力. 但该软件上线不到24小时就匆忙下线, 因为机器人通过学习与他人对话, 学到并发表了大量的种族歧视言论. 弱人工智能体的不当行为已使“犯罪”的社会危害性显著增强. 随着人工智能技术的发展, 具有独立意志的强人工智能体的出现不是痴人说梦, 若不对强人工智能体实施的严重危害社会的行为进行刑事处罚则势必会造成一系列不利后果. 其一, 强人工智能体因其自身优势(如身体机能远超人类)实施的犯罪行为的社会危害性将远高于人类;

其二, 刑法基本原则之一是法律面前人人平等, 若强人工智能体做出严重危害社会的犯罪行为而刑法却不对其施加惩罚, 则会折损人们对刑法的信任;

其三, 人们对人工智能的不安全感、 不信任感甚至恐惧感大多源于其不受法律的约束, 任何个人或团体不受刑法约束, 其他人的个人信心都将受到严重损害[6].

因此, 对强人工智能体的立法应当具有前瞻性, 不应囿于当下所面临的状况. 法律的制定不是一蹴而就的, 如果等到强人工智能时代真正到来才进行规制, 可能会受其反制. 可见, 现阶段就应考虑通过立法赋予强人工智能体刑事法律主体资格, 在促进人工智能技术发展的同时做好风险防控.

3.2 强人工智能体成为刑事责任主体的可行性

3.2.1 法理学基础

德国法学家拉德布鲁赫指出:“人之所以为人, 并不是因为他是一种有肉体和精神的生物, 而是因为根据法律规则的观点, 人展现了一种自我目的. 这样, 为了证明人类群体可能可以具备法学人格, 我们不需要证明人类在生物学上是相同的客观实体、 组织, 而是需要证明自我目的在人类群体当中和在个体的人身上体现的是一致的. ”[7]可见, 当强人工智能体具有独立自我意识、 具备独立思考和决策的能力时, 其就具备了作为法律上的“人”的可能性.

退一步讲, 机能的罪责理论完全无视自由意志的命题, 认为什么是危害社会行为、 谁应该承担刑罚后果都取决于社会, 并非取决于主体应当具备什么样的条件. 根据该理论, 当具有自由意志的强人工智能体大规模参与人类生活以至于其导致的法律真空过于巨大, 严重动摇了法律本身的稳定性, 就可以甚至应当承认其法律主体地位, 由其承担法律后果. 笔者认为, 目前对于强人工智能体的问题陷入脑科学的自由意志的验证研究是无意义的, 因为无论是自由意志理论还是机能的罪责理论, 都是对社会需求的一种社会性重构, 社会既然可以构建人的意志自由, 也可以构建强人工智能体的意志自由[8].

3.2.2 刑法学基础

我国刑法通说认为, 刑事责任能力是指行为人承担刑事责任所应当具备的辨认和控制能力. 刑法上的辨认能力是指行为人对其行为的事实层面的认识以及法律层面上的认识;

刑法上的控制能力是指行为人具备支配、 决定自己是否以行为触犯刑法的能力[9]248. 学习能力是强人工智能体所具备的强大能力, 强人工智能体在程序设计与编程中被赋予学习的能力, 同时, 创造者可以将大量的道德规范与法律规范植入强人工智能体内, 此时, 强人工智能体将拥有与自然人无异甚至高于大多数自然人的法律层面上的辨认能力. 此外, 在事实层面上的认识能力, 强人工智能体可以通过其感知系统进行准确的物理认识, 同样拥有比人类更加精准的事实认识能力. 同时, 强人工智能体凭借大数据以及编程, 具有相较于人类更为快速的反应能力以及更加精准的控制能力.

综上所述, 与自然人相比, 强人工智能体可以具有与人类相似甚至高于人类的辨认和控制能力. 我们可以认为, 强人工智能体具有成为刑事责任主体的可行性.

3.2.3 经济基础

法律术语的内涵和外延都在不断变化, 法律术语的概念随着时间的变化会有不同的解释. 对于法律规制的主体, 人类根据社会与经济发展的需要进行着不断的调整. 美国法学家格雷指出, 历史上有六种法律主体类型:正常生物人、 非正常生物人、 超自然人、 动物、 无生命体和法人[10]. 法律主体身份的确立由法律规定, 法律属于上层建筑的范畴, 其发展由经济基础决定. 法律对于主体范围的承认归根结底取决于经济社会发展的阶段与水平, 某一类事物的法律主体身份的赋予, 由其在经济社会中的地位决定, 与其是否人类或生命体并无绝对联系. 如, 1997年法人刑事责任主体地位的确立.

强人工智能时代, 人与强人工智能体之间的关系不再是传统观念中的“主体”与“客体”的关系或是“使用者”与“被使用者”的关系. 强人工智能技术将会成为人类经济发展的重要动力, 而人工智能犯罪也会随着技术的普及激增. 因此, 将强人工智能体参考“法人”纳入刑法规制的范围内, 其目的是适应社会经济的发展以及更好地保护人类法益.

4.1 删除数据、 修改程序和永久销毁的刑罚体系分析

目前, 学者们对于强人工智能体刑事责任承担方式构建设想讨论较多的是刘宪权教授的观点, 即针对强人工智能体社会危害性的大小, 设置具有层次性的刑罚阶梯:删除数据、 修改程序和永久销毁. 所谓删除数据, 是指删除强人工智能体实施犯罪行为所依赖的数据信息, 相当于抹除其“犯罪记忆”, 从而引导强人工智能体在今后的深度学习过程中主动获取“正面数据”, 排斥或绝缘于可能导致违法犯罪行为的“负面数据”, 直接降低其人身危险性. 所谓修改程序, 是指在通过多次删除数据仍无法阻止其主动获取有可能实施违法犯罪行为的“负面数据”时, 也即该智能机器人不能被正面引导时, 强制修改其基础程序, 使其无法获取人类设计和编制的程序限定范围外的数据, 无法产生超出人类意志之外的自我独立意志. 所谓永久销毁, 是指在删除数据、 修改程序均无法降低实施犯罪行为的智能机器人的人身危险性时, 便只能将其永久销毁[11].

对于以上设想的刑罚体系, 笔者认为其还有完善的空间. 其一, 修改程序与永久销毁本质上达到的剥夺犯罪人犯罪能力的效果是一致的. 修改程序后强人工智能体变为弱人工智能体, 相当于摘除强人工智能体的“大脑”, 使其不再具有独立意志能力, 无法成为犯罪主体进而独立实施犯罪, 而对强人工智能体进行物理销毁同样也是从客观上阻止其再次犯罪. 笔者认为, 物理销毁刑罚的设置未着眼于经济的发展, 且与修改程序所达到的效果无异, 额外设置物理销毁刑罚缺乏存在的理由. 其二, 笔者认为删除数据并不能达到惩罚与预防犯罪的效果. 对强人工智能体删除数据, 仅是删除“犯罪记忆”, 并未打消其犯意也无教育意义, 无法实现刘宪权教授论述的引导强人工智能体获取正面数据并排斥违法犯罪行为的负面数据, 即无法实现报应与预防的刑罚目的. 其三, 该刑罚体系忽视了现有刑罚体系中财产刑与自由刑对强人工智能体适用的可能性.

4.2 刑事责任承担方式设想与价值分析

4.2.1 刑事责任承担方式设想

对自然人的刑罚规定要出于人道主义考虑, 提倡刑罚的适当性, 对于强人工智能体的刑罚设置也应当考虑其适当性, 从保护人类自身利益的需要出发, 考虑刑法的基本价值, 设置的刑罚应当能够维护人类的利益以及社会的稳定.

4.2.1.1 财产刑

对强人工智能体可以处以罚金和没收财产. 人工智能具有独立的创造能力, 其创造的新闻稿、 著作、 音乐和美术等艺术作品具有独创性, 受到知识产权法的保护. 现阶段的主流观点认为, 人工智能创造的作品的收益应当归属人工智能体的创造者或者拥有者[12]. 但是在强人工智能时代, 强人工智能体拥有独立的法律地位, 也同样应当具有独立的财产权利. 同时, 笔者认为可以参照我国的机动车交通事故责任强制保险制度, 强制强人工智能体缴纳保险, 防止在需要刑事赔偿时出现无财产可赔偿的问题. 财产刑适用于社会危害性以及人身危险性不大的犯罪人以及经济性质的犯罪人. 单处财产刑不必将犯罪的强人工智能体投入监狱, 从而消除了其在监狱中交叉感染的可能性[9]195.

4.2.1.2 一定时限的限制行为自由

该刑罚类似于自然人的自由刑, 根据强人工智能体行为的社会危害性以及人身危险性对犯罪的强人工智能体判处一定时间的关闭行为能力, 使强人工智能体不能按照自己的意志自由行动, 从而使其感受到类似于人类痛苦的感觉[13]. 该刑罚不必将强人工智能体关入监狱, 一方面防止了强人工智能体在监狱内交叉感染的可能性;

另一方面减少监狱建造成本, 有助于节约社会资源. 在关闭强人工智能体行为能力时, 不关闭其“大脑”, 同时, 在此期间对犯罪的强人工智能体进行强制教育, 将教育内容通过编程向其传输数据, 通过教育实现刑罚的改造功能.

4.2.1.3 修改程序

该刑罚适用于社会危害性以及人身危险性极大的犯罪的强人工智能体. 对适用财产刑与自由刑无法消除其犯罪意图的强人工智能体, 通过强制修改强人工智能体的程序, 剥夺其自主思考与学习能力, 使其成为一个仅可在编程范围内行为的弱人工智能体, 从根本上剥夺其犯罪能力. 该项刑罚相当于对强人工智能体处以“死刑”, 修改程序相当于摘掉了强人工智能体的“大脑”, 使其成为一个仅依靠编程预设而行为的“植物人”. 制造强人工智能体的成本较高, 将强人工智能体修改为弱人工智能体亦是对社会资源的一种浪费, 因此, 应当严格限制该项刑罚的适用.

4.2.2 价值分析

4.2.2.1 以上刑事责任承担方式符合犯罪主体特征

以上刑事责任承担方式体现了与犯罪主体特征相一致的原则. 如针对自然人趋利避害的本质, 设置让自然人感到痛苦的财产刑、 自由刑和生命刑等刑事责任承担方式;

针对单位经济性的本质, 对单位犯罪处以财产刑. 强人工智能体以程序为其存在的基础, 其又拥有自由意志, 对于财富和自由拥有同样的追求. 故财产刑、 限制自由以及修改程序是针对强人工智能体自身的特征以及需求做出设想, 能够发挥刑罚应有的功能.

4.2.2.2 以上刑事责任承担方式能够实现刑罚功能

刑罚的功能是指刑罚所产生的积极作用. 其一, 对犯罪的强人工智能体处以财产刑, 剥夺强人工智能体拥有的财富, 对其而言是痛苦的, 因此可以发挥个别威慑功能. 同时, 给予被害者一定的经济补偿, 也可以发挥安抚补偿的功能. 其二, 一定时限的限制行为自由的刑事责任承担方式, 在刑期强制强人工智能体进行学习, 发挥个别威慑与教育改造功能. 其三, 修改程序使强人工智能体变为弱人工智能体, 从根本上消除了其再犯条件, 发挥了安抚以及一般威慑的功能. 在对犯罪的强人工智能体处以以上惩罚的同时, 强人工智能技术也会将犯罪信息以及惩罚后果输入强人工智能系统数据库, 警醒其他强人工智能体, 发挥了教育与一般威慑功能.

4.2.2.3 以上刑事责任承担方式能够实现刑罚的目的

刑罚的目的分为一般预防与特殊预防, 以上刑事责任承担方式, 两种目的皆可实现. 正如有学者认为:“智能机器人具有感知刑罚痛苦的能力, 并且能够在犯罪的快感与刑罚的痛苦之间进行理性权衡, 以调整以后的行为. ”[14]以上刑事责任承担方式通过对犯罪的强人工智能体施加与其需求相背离的行为, 能够使强人工智能体产生痛苦的感觉, 可以达到预防的目的;

对于社会危险性极大的强人工智能体进行修改程序, 可以彻底杜绝其再犯可能性, 这实现了刑罚的特殊预防作用. 一般预防是针对犯罪的强人工智能体以外的强人工智能体而言的, 将强人工智能体的犯罪行为以及刑罚结果在互联网上公开供强人工智能体学习, 并可将裁判结果输入人工智能的编程中. 因为强人工智能体具有学习能力, 其可以对裁判结果进行学习, 了解犯罪的后果, 对其产生威慑作用, 从而实现一般预防的目的.

猜你喜欢 刑罚意志刑法 时代新人与意志砥砺马克思主义哲学研究(2021年1期)2021-11-22过度刑法化的倾向及其纠正法律方法(2021年4期)2021-03-16刑罚威慑力的刑法学分析活力(2019年22期)2019-03-16代运为名行诈骗 构成犯罪获刑罚今日农业(2019年16期)2019-01-03断盐也是一种刑罚少儿科学周刊·少年版(2017年4期)2017-07-01《西厢记》中的理性意志与自由意志影视与戏剧评论(2016年0期)2016-11-23刑法适用与刑法教义学的向度刑法论丛(2016年3期)2016-06-01刑法的理性探讨中国市场(2016年45期)2016-05-17刑罚的证明标准人间(2015年22期)2016-01-04释疑刑法浙江人大(2014年6期)2014-03-20推荐访问:人工智能 刑事责任 设想
上一篇:“双减”政策下初中英语作业多元化设计研究——基于Van,Lier语言发展理论的练习观
下一篇:基于GSM的试验船安全防护报警系统设计

Copyright @ 2013 - 2018 优秀啊教育网 All Rights Reserved

优秀啊教育网 版权所有