《人工智能犯罪的刑法应对-精品文档 (2).docx》由会员分享,可在线阅读,更多相关《人工智能犯罪的刑法应对-精品文档 (2).docx(17页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、人工智能犯罪的刑法应对当前,人工智能正以其强劲的技术气力,推动社会形态和社会构造发生重大变革。年月,国务院制定了(新一代人工智能发展规划),对我国人工智能的发展进行全方位谋篇布局。年月,党的明确提出把建设智慧社会作为加快建设创新型国家的重要内容。新型社会形态需要与其相匹配的法律制度,智慧社会已初具雏形,但与其相对应的法律制度却尚未建立,由此导致社会治理的罅漏和迟滞。十分是,对于对人类社会安全存在潜在威胁的人工智能的“失控行为,更需要制定现实性和前瞻性兼具的刑事治理对策。事实上,人工智能的出现和发展,正是社会学家乌尔里希贝克所描绘的风险社会的一个缩影。因而,本文拟从风险社会理论的视角出发,分析对
2、人工智能犯罪追查刑事责任的窘境,探究刑法应对人工智能挑战人类生存安全问题的应然途径。一、人工智能风险刑法应对的合理性人工智能,是通过计算机语言编写的方式对特定对象的需求信息、数据构造、运行指令等进行处理,进而实现目的对象模拟人类做出类人反响的一种技术方法。人工智能的本质特征,在于能够在深度学习的前提下自主地进行分析、判定和决策。与前人工智能时代的产品相比,人工智能固然亦以为人类的生产生活提供便捷帮助为出发点,但却因其深度学习和以之为基础的自主决策的存在,导致其设计和制造者以及使用者对其最终将作出何种行为难以做到充分的认知和绝对的控制。就此而言,人工智能与前人工智能时代的产品有着本质区别。根据乌
3、尔里希贝克、安东尼吉登斯等社会学家提出的风险社会理论,不难发现,人工智能所隐含的风险其实是风险社会中新型风险的一个重要表现形式,因此能够适用刑法对风险社会风险的应对策略。一方面,人工智能作为一种新技术,其研究和开发均建立在人类决策基础之上,符合风险社会之“风险的人为性特征。关于风险与决策之间的关系问题,贝克曾指出:“风险总是依靠决策就是讲,它们以决策为前提。它们产生于从不确定性和危险向决策的转变之中并推动着决策的制定,这反过来又制造了风险。对于人工智能十分是强人工智能这种人工智能具有在深度学习后独立而不受原始算法编写者控制地作出判定和决策的能力而言,尽管直接作用于客观世界的行为并非人类直接作出
4、,也非直接根据人类特定的指令作出,但这却不能否认人类决策对人工智能的行为具有根本性和决定性的影响。人工智能据以深度学习的原始算法由人类输入,作为其深度学习内容的数据库由人类提供,因而,尽管人工智能后续中可能习得新的算法,数据库也会动态地发生变化,但是人类却能够在源头上控制其风险的发生。传统刑法以人的行为为规制对象,这同样适用于对人工智能行为的控制。由于人工智能的风险能否发生,能够通过人的行为进行控制。换言之,由人工智能潜在风险导致的实害结果能否发生,人的行为具有压倒性、绝对性的影响。所以从调整对象的角度来看,刑法对人工智能的犯罪风险进行防控具有合理性。另一方面,人工智能经过深度学习后的潜在风险
5、具有不确定性,能否具有导致实害结果的高度可能性、实害结果有何种程度的严重性等均难以为人类所准确认知。人工智能所潜隐的风险一旦引发实害结果,人类将面临不可估量的灾难。固然人工智能开展深度学习最初的算法和数据库由其设计和制造者决定,但是随着其深度学习的进行,人工智能完全有可能学习和把握新的算法,并且能够自主决定学习其他数据库的内容,因而,人工智能最终影响和改变客观世界的状态,并不为人类所完全规划和掌控。这种不确定性,正是当代风险社会的又一典型特征。吉登斯将这种当代性譬喻为一头猛兽,并以生动的笔触作了如下描绘:“一个马力宏大又失控的引擎,作为人类集体我们能够在某种程度上驾驭它,固然它咆哮着试图摆脱我
6、们的控制,而且能够把本人也撕得粉碎。这头猛兽压碎那些敢于抵抗它的人,而且,固然它有时似乎也有固定的途径,但当它忽然掉转头来时,我们就不能预测它飘忽不定的方向。驾驭它决不是完全令人扫兴和毫无好处的,这个经过经常令人兴奋异常,而且还充满了希望。但是,只要当代性的制度持续下去,我们就永远不可能完全控制驾驭的途径或速度。毫无疑问,人工智能强大的深度学习能力、独立的自主判定和决策能力,必将成为风险社会的又一头猛兽。这头猛兽,假如脱逸人类的控制,将对人类社会造成如何的危害,是难以预测的。“预防犯罪比惩罚犯罪更高明,这乃是一切优秀立法的主要目的。安全是人工智能时代的核心价值,人类假如等到人工智能风险引发实害
7、结果后才考虑建立风险防备的法律制度,很可能导致风险失控的灾难性后果。刑法作为人类社会安全的最后保障法,在防控人工智能犯罪风险的法律体系中,绝不能缺位。二、人工智能犯罪主体的定位一人工智能犯罪主体的定位之争在将来的刑事立法中,人工智能能否被拟制为一种独立于自然人和单位的新型犯罪主体的问题,是讨论人工智能刑事治理的逻辑起点。只要明确谁应当对人工智能“失控行为所造成的危害结果承当刑事责任,才能够以此为基准建立起对于人工智能犯罪治理的法律体系。然而,对这一基础性问题,理论界却存在着针锋相对的两种立场。一种立场能够归纳为“强人工智能犯罪主体肯定讲,即以为以人工智能产品能否具有识别能力和控制能力以及能否能
8、在人类设计和编制的程序范围外独立作出判定和决策为根据,能够将人工智能产品分为强人工智能产品和弱人工智能产品,其中具有脱离程序的独立意志的强人工智能产品,具有独立的犯罪主体地位和刑事责任能力。另一种立场则能够归纳为“人工智能犯罪主体否认讲,即全面否认人工智能被拟制为犯罪主体的理论自恰性,以为应当由人工智能产品的设计和制造者以及使用者承当刑事责任,而不应将人工智能产品作为独立的犯罪主体追查刑事责任。上述第一种观点在一定程度上能够防止技术发展的萎缩,同时填补了无法追查自然人或单位主体刑事责任情形下的法律漏洞,有其合理之处,但却不当地降低了人工智能产品设计和制造者和使用者的注意义务。第二种观点立足于人
9、工智能的意志产生与设计和制造者、使用者为其提供算法和数据库背后的意志之间的因果关系,捉住了人工智能与人类在善恶观和伦理观上所具有的本质差异,并敏锐地指出强人工智能犯罪主体肯定讲为人工智能设计的新型刑罚的不可行性,但在论证方面尚需要进一步阐释。二应然定位:人工智能不应被拟制为犯罪主体尽管具有自主决定能力的人工智能,在某种程度上具有与人类类似的识别和控制本身引发的客观状态的能力,但是这并不是刑法将人工智能拟制为犯罪主体的充分条件。笔者以为,即便具有严重社会危害性的状态是人工智能在自主决定的情况下引发的,刑事责任的承当主体也应是相关自然人或者单位,而不应将人工智能拟制为新的犯罪主体。首先,人类设计人
10、工智能的目的,在于利用其在生产、生活、国防等领域代替人类从事一定的活动。人工智能并没有独立于人类的权利和价值,而只要利益附属性。对此,即使竭力主张法律应当赋予人工智能以权利主体的地位的学者,也不得不成认机器人的工具性价值决定其具有天然利他特性,在人为编程和算法的影响下,其本身亦难以产生利己主义的指令和行为。法律对于权利主体的基本定位是理性人,利己性是对法律主体最基本的人性假设。尽管见义勇为等利他性行为为主流道德所提倡,但这些不需要对待给付的利他性行为通常不会被法律设定为义务。法人作为一种法律拟制的主体,其本身亦有独立于其发起设立者、股东和高级管理人员等自然人的特殊利益,因而,将法人拟制为法律主
11、体符合法律主体利己性的前提假设。从这一角度出发,人工智能并不具有可类比性。假如智能机器人不存在被赋予法律权利的前提却需要承当相应的法律义务,进而具有成为犯罪主体的可能性,这便导致法律权利与法律义务相对应的理论陷入自相矛盾。基于权利与义务的对等性原则,假如将人工智能拟制为能够被追查刑事责任的独立主体,则势必要赋予其一定的独立权利,而这显然与人类研发人工智能的初衷背道而驰。其次,人工智能尽管在一定程度上具备识别和控制能力,但是并不具备与人类完全一样的善恶观、伦理观,对其施以刑罚处罚也难以发挥刑罚预防犯罪的功能。认知以心智作为定义根据,人类的认知从低级到高级能够根据人类心智进化历程,分为神经层级的认
12、知、心理层级的认知、语言层级的认知、思维层级的认知和文化层级的认知等五个层级,而在这五个层级的认知活动中,当前人工智能的认知水平均与人类存在着不同程度的差异。对幸福、痛苦和各种情绪的感受属于最低阶的神经层级认知,人工智能的认知水平与一些低级动物相比尚存在差距,与人类更不具有可比性。功利主义哲学创始人边沁曾经提出“刑罚之苦必须超过犯罪之利的罪刑相称规则,以为只要抑制犯罪动机的气力超过诱惑动机,才能预防一个犯罪,也即刑罚作为一个恐惧物,必须超过作为诱惑物的罪行。假如人工智能无法产生对触犯刑法后将要接受刑罚处罚的恐惧感,那么刑法就无法实现特殊预防和一般预防的功能,只能以报应刑的方式一定程度上抚慰被害
13、人,这显然与当代刑法观格格不入。有学者基于人工智能与自然人和单位的差异,提出对人工智能适用的刑罚种类之设想。然而,无论是删除数据,还是修改程序,抑或最严厉的永久销毁,假如受罚主体缺乏对其意义的伦理感悟,则与将其作为供犯罪使用的财物进行处置并无本质区别。最后,假如将人工智能视为独立的犯罪主体并对其进行刑罚处罚,将会加剧风险社会下“有组织的不负责任的状态。风险社会下,工业社会中建构的明确责任和分摊费用的制度已经失灵,人们能够向一个又一个主管机构求助并要求其对此负责,但是这些机构却能够找到充分的理由为本人开脱,以表明本人与此毫无关系,或者本人只是个次要介入者。假如将人工智能作为独立于其设计和制造者以
14、及使用者的犯罪主体追查刑事责任,而不对上述相关自然人或单位的注意义务进行严格要求,进而不对其追查刑事责任,必将陷入没有适格的法律主体对事实上由本人创设的风险负责的怪圈,“有组织的不负责任现象将进一步加剧,人类社会的安全将面临无人负责的严峻挑战。正如美国学者所言:“假如制造商不承当责任,那么他们就失去了改良产品的动机。假如轻易豁免以人工智能设计和制造者为代表的主体的法律责任,那么在逐利性市场的引导下,人工智能所隐藏的风险将永远不可能减少和消除,这显然不利于对人类生存安全的保护。例如,当人工智能应用于军事战争时,“军事斗争就变成了一群冰冷的却又高度机械的废铁在人的支配下进行残酷的杀掠,假如仅对军事
15、智能武器施加所谓的“刑罚事实上相当于处置犯罪工具,而不对其设计者、操纵者、控制者或命令下达者等自然人或单位追查刑事责任,那么军事智能武器便成为战争发动者躲避法律责任的盾牌,这显然是保障功能的失灵。三、风险社会下人工智能犯罪刑事责任的分配一人工智能犯罪刑事责任的分配之争基于对人工智能犯罪主体定位的差异,以及对保障创新和保障安全价值平衡结果的差异,对于人工智能犯罪的刑事责任分配问题,亦存在众多争议。对于完全根据人类设计的程序运行而缺乏独立的分析和决策能力的弱人工智能而言,将其视为犯罪工具而对其设计和制造者、使用者追查刑事责任,这一点基本没有异议。但是,对于在人类设计的算法基础上进行深度学习而具有独
16、立于其设计和制造者、使用者的意志和分析决策能力的强人工智能,其能否承当刑事责任、相关自然人或单位能否需要承当刑事责任、相关自然人或单位能否与人工智能构成共同犯罪等问题,则学界分歧严重,难以达成共鸣。仅就人工智能的设计和制造者、使用者而言,其应当负有何种程度的注意义务,或曰在何种范围内成立过失犯罪,以及是由设计和制造者、使用者等多个主体分担责任还是由某个单一主体单独承当责任,则因论者的价值取向不同而存在观点对立。然而,人工智能犯罪刑事责任分配问题,直接决定着人工智能“失控行为所造成的危害后果的责任承当主体,这将对风险社会下人工智能技术的发展方向起着至关重要的指引作用。二应然定位:以风险防控为出发
17、点分配责任风险社会中,面对伴随新技术或新制度而产生的可能导致难以估量和控制其实害结果的风险,强化刑法的安全保障机能具有合理性和必要性。人工智能作为风险社会中重要的风险源,在对人工智能犯罪的刑事责任分配时,应当以防控风险为出发点,同时兼顾对科技创新的保障,准确厘定人工智能产品设计和制造者的刑事责任以及人工智能产品使用者的刑事责任。人工智能产品设计和制造者的刑事责任在对人工智能产品的设计和制造者进行刑事责任分配时,应当坚持法益原则,并区分成心犯罪和过失犯罪。人工智能产品的设计和制造者的行为,并非实害结果发生最直接的原因,而是愈加前端的原因,这是导致实害结果的风险的最初来源。对风险源的制造者即人工智
18、能产品的设计和制造者追查刑事责任,是一种风险防控早期化的表现,体现了对风险防控的强化。以输入的算法和用以深度学习的数据库为分类根据,能够将人工智能产品分为用以施行犯罪活动的人工智能产品和非用以施行犯罪活动的人工智能产品。对于这两种人工智能产品的设计和制造者的刑事责任承当方式,应当有所区分。假如一个人工智能产品被设计和制造的用处就是施行恐惧主义犯罪,其设计和制造者为其输入用以模拟施行恐惧活动的程序,并提供集合有组织地施行杀人、伤害、投毒、绑架等恐惧活动实例的数据库供其学习,那么该人工智能产品的设计和制造者是明知本人的行为将导致社会公共安全遭到损害并引起民众恐慌的结果,却仍然施行设计和制造人工智能
19、产品,显然具有犯罪的成心,应当构成成心犯罪,且能够预备行为正犯化等立法形式到达法益保护前置化的目的,以更好地防控犯罪风险。但对于非用以施行犯罪活动的人工智能产品的设计和制造者而言,人工智能产品造成了严重危害社会的结果的发生,并非其在主观上积极追求的,而是与其意志相违犯的,只是由于人工智能产品被其他自然人或单位用于施行犯罪活动,或者人工智能产品存在设计缺陷,抑或人工智能产品经过深度学习把握了新的算法进而在其设计和制造者设想之外引发实害结果,因此不能归入成心犯罪的范畴。至于能否构成过失犯罪,则需要进一步讨论。任何无瑕疵的技术本身原则上不应产生刑事责任,但是假如其主要用处是用以施行犯罪行为,那么技术
20、中立原则不再适用,替代责任成为较为适宜的选择。假如非用以施行犯罪活动的人工智能产品被其他自然人或单位用于施行犯罪活动,追查相关主体刑事责任时应遵循替代责任的原则,其设计和制造者不应对没有技术缺陷的人工智能产品承当刑事责任。有论者在讨论军事智能武器相关主体的刑事责任时,提出应当对损害人的生命健康权或者公共安全的军事智能武器的设计者、操纵者、控制者、命令下达者等相关人员,以严格的无过错主义原则追查刑事责任。这一归责形式,将对人工智能的设计和制造者科以过重的义务,极大地压制技术创新活动,殊不可取。军事智能武器能够用于发动侵略战争,可以以在对侵略者进行正当防卫和对潜在的侵略者进行震慑等方面发挥正面作用
21、。假如由于军事智能武器被其使用者实际用于侵略战争,就对其设计和制造者追查刑事责任,那么军事智能武器在保障国防安全方面的价值就会被抹杀,军工单位及其技术人员的创新积极性将会严重受挫。对于本身存在技术缺陷的弱人工智能产品以及经过深度学习后施行了偏离最初算法预设的行为的强人工智能产品而言,假如其导致了严重危害社会的实害结果发生,那么其设计和制造者则存在构成过失犯罪的可能性。对人工智能产品的设计和制造者设置刑法上的注意义务,是解决设计和制造者成立过失犯罪的范围的关键。但对注意义务的来源问题,刑法学界却存在着极大争议。有学者以自动驾驶车辆犯罪为例,归纳出注意义务的一是一般交通运输管理法规,二是有关自动驾
22、驶车辆的十分交通运输管理法规,三是责任主体对产品的承诺与规范。另有学者将注意义务范围定位为符合根据人类现有科学技术水平所能够企及的国家标准或行业标准,假如人工智能产品符合该标准,那么其导致的危险便不能归入“不合理的危险。还有学者以为,包括标准、标准等在内的行业标准,属于非国家组织制定的民间标准,既不一定与刑法上的注意义务相一致,也缺乏民主主义的正当性,不应作为注意义务的判定标准。对于人工智能产品的设计和制造者注意义务确实定标准,第一种观点采取了“一般法十分法责任主体承诺的形式,一方面强调了外在规范的民主性基础,即应该上升到法律法规层面而非不具有官方性质的组织制定的标准,另一方面也强调了设计和制
23、造者本人作出的高于国家标准的承诺所体现的对风险的实际预见能力所具有的法律意义,并且对伦理道德和职业道德予以考量。该观点所确定的注意义务来源最为广泛,考虑的因素也最为全面。但是,对于外在标准的范围仅限于法律法规,而未提及由专家系统主导的更具有专业性、科学性的行业标准,也存在范围过窄之嫌。第二种观点将注意义务来源限定于国家标准或行业标准,而未将人工智能产品的设计和制造者本人实际能够认识到的风险考虑在内,过分降低了注意义务的标准,忽略了已经预见而轻信能够避免而构成过失犯罪的情形,不具有周延性。第三种观点对以当前通行的行业标准作为刑法中注意义务来源的思路进行了批判,强调了两者之间的差异性和后者应具有的
24、民主性基础。但这一观点存在明显的缺陷:行为人的预见义务应当包括法律、法令、职业与业务方面的规章制度所确定的义务以及日常生活准则所提出的义务,而不仅限于由代议制机构制定的充分体现民主性的法律,以行业标准不具有民主性基础否认其成为预见义务的来源的理由,不具有讲服力。人工智能作为风险社会中一种重要的风险来源,刑事立法应当在防控风险时强调安全保障机能的发挥。人工智能产品的设计和制造者是风险的最初源头,其以输入算法和提供数据库的方式作出的决策,对于人工智能后续深度学习和以为使用者提供服务的方式对客观世界产生的影响所起的作用是决定性的,在对非用以施行犯罪活动的人工智能产品的设计和制造者设置注意义务方面,应
25、当适度拓宽范围,而不应过度限缩。只要当法律法规、国家标准和行业标准、责任人自我承诺、一般社会伦理、职业伦理等设定的注意义务均未违背,而是由人类认知水平确实无法到达的原因导致产品存在缺陷,进而导致严重危害社会的实害结果发生时,才能够阻却设计和制造者的责任。另外,刑法不应仅立足于防控人工智能的风险,也应当以更好地推动人类社会进步为出发点适度地保障科技创新。为了避免刑法过度遏制人工智能技术创新,在对于存在过失的设计和制造者追查刑事责任时,应当以发生实害结果为前提,而不应该对一切在人类认知空白领域,或者虽不符合相关标准但是也未被证实其产品确会导致严重损害结果的设计和制造行为绝对禁止。人工智能产品使用者
26、的刑事责任当人工智能产品在运行经过中导致了具有严重社会危害性的结果发生时,根据人工智能产品的使用者所扮演的角色,在对其分配刑事责任时应当有不同的方式。当使用者是人工智能犯罪的被害人时,由于其使用行为并未对本身法益之外的其他法益造成毁坏,不需承当刑事责任。另外,对于使用者作为被害人存在过错而减轻设计和制造者刑事责任情形的认定,不应过于广泛,而应该将被害人未采取预防措施的情形予以排除。假如将未采取有效的防备措施作为被害人过错,则意味着设计和制造者所研发的人工智能产品缺陷越大,被害人未采取与之匹配的有效防备措施的可能性越大,那么被害人存在过错的可能性则越大,设计和制造者刑事责任降低的可能性越大,这显
27、然是一种悖论。当使用者将用于施行犯罪活动的人工智能产品根据其设定的用处来使用,或者将非用于施行犯罪活动的人工智能产品事实上用于施行犯罪活动时,使用者明知其使用人工智能产品的行为具有法益损害性仍然希望或者听任这一结果的发生,明显违犯了国家鼓励人工智能发展的初衷,应当对其成心犯罪追查刑事责任。当人工智能产品因存在当前人类认知水平下难以发现的技术缺陷而导致实害结果发生时,其使用者能否因存在过失而被追查刑事责任,应当根据使用者与人工智能之间的互动关系进行判定。当使用者基于对人工智能技术的信赖,根据人工智能产品的使用规则,让人工智能产品独立完成某一任务而非与之一同完成时,不应以为使用者存在过失进而追查其
28、刑事责任。风险社会下,“以怀疑或保留的态度为基础,对技术知识的尊重通常与对抽象体系所持有的实用态度并存,但是不得不成认,非专业人士对专家系统这一抽象体系建立起普遍信赖是风险社会的基本特征之一。因而,假如对作为非专业人士的人工智能产品使用者设立过高的注意义务,无疑是与风险社会下专业化发展趋势不符合的,违犯了“法律不强人所难的基本原则。但是,假如根据人工智能产品的使用规则,使用者与人工智能产品共同完成某项任务时引发了具有严重社会危害性的实害结果,那么使用者便应当在本身注意义务的范围内承当刑事责任。例如,自动驾驶汽车有不同的实现阶段,当加速、控制方向盘、刹车等操作中有一个、数个或全部由系统掌控,但驾
29、驶员仍应当承当不同程度的驾驶任务时,此时的自动驾车系统分别可称为“安全驾驶支援系统和“准自动驾驶系统。在上述尚未实现驾驶任务完全不需要驾驶员承当的情况下,将注意义务完全分配给自动驾驶汽车的设计和制造者并不合理。驾驶员假如有违背法律法规、职业伦理以及合同承诺等为其提出的注意义务,单独或者与自动驾驶汽车的故障、缺陷等共同作用导致交通事故的发生,那么驾驶员作为人工智能产品的使用者也应在其注意义务范围内承当相应的刑事责任。四、结语智慧社会的建设以人工智能的发展为核心,而人工智能的发展假如缺少法律的规制,将可能误入严重威胁人类生存安全的歧途。刑法作为人类安全的最后保障法,在对人工智能的发展进行法律规制时
30、绝不能缺位。事实上,人工智能的出现和发展正是人类进入风险社会的一个重要表现,面对人工智能所隐藏的犯罪风险,刑法应当以应对风险社会新型风险的思路,以安全保障为首要价值选择,同时兼顾创新保障,积极进行合理而有效的应对。包括刑法学界在内的整个法学界,对于人工智能的法律规制问题研究尚处于起步阶段,在如今已有的研究成果中,将人工智能拟制为法律主体甚至犯罪主体的观点不在少数。但是,这一立场的支持者并未认清人工智能并不存在独立于人类的权利和价值,亦未准确把握人工智能在善恶观、伦理观层面的认知水平与人类存在的本质差异,轻率地将人工智能拟制为犯罪主体将进一步加剧风险社会中“有组织的不负责任现象,不利于从源头上控制不合理的风险。以防控风险为出发点,同时避免过度遏制人工智能技术创新,在排除了人工智能本身本拟制为犯罪主体的前提下,在对相关主体进行刑事责任分配时,应当注意区分不同的情形,以契合风险社会下社会发展的现状和需求。在对人工智能产品的设计和制造者分配刑事责任时,应当以其研发的人工智能产品能否以用于施行犯罪活动为基本功能作为区分标准,判定设计和制造者的罪过形式以及在何种情形下负有注意义务。在对人工智能产品的使用者分配刑事责任时,则应从其在人工智能产品引发具有社会危害性结果经过中所扮演的角色,对其罪过形式、何种情形下负有注意义务以及其行为对设计和制造者刑事责任的影响等进行判定。