摘要:随着科学技术的迅猛发展和全球化的持续推进,人类社会发生了广泛而深刻的变化,人工智能潜在的风险是当代风险社会中新型风险的重要表现形式。因此,刑法将面临现实挑战:犯罪危害性难以预测;可能产生新的犯罪形式;刑罚理念亟须转变。我国刑法应该重视潜在预防与风险防控:增设新罪,严密法网;确立智能机器人的刑事责任主体地位;完善刑罚体系。做到未雨绸缪,深度研究探索人工智能时代犯罪的刑法规制路径。
关键词:人工智能风险;风险社会;刑法应对
中图分类号:D924.3文献标志码:A文章编号:1673-291X(2020)22-0151-02
人工智能的迅猛发展是科技高度发达的必然结果,也为当今社会提供了新的风险诱因。人工智能潜在的风险具有人为性和不确定性,特别人工智能的失控行为对于人类社会安全存在巨大的威胁。人工智能的发展会对我们的刑事司法,尤其是刑事责任认定、刑罚的适用和执行等方面产生影响,需要制定现实性和前瞻性兼具的刑事治理对策,特别是相关刑法规范的规制。所以说,刑法对人工智能风险的应对具有必要性。笔者从风险社会理论视角出发,通过剖析人工智能犯罪追究刑事责任的困境,试图探究刑法应对人工智能挑战人类生存安全问题的路径。
一、风险社会的新课题:人工智能
20世纪80年代以来,随着科学技术的迅猛发展和全球化的持续推进,人类社会发生了广泛而深刻的变化,出现了一系列前所未有的令人惶恐不安的风险景象,如恐怖主义犯罪、环境污染犯罪等。德国社会学家乌尔里希·贝克1986年发表其奠基之作《风险社会》,首次提出风险社会的概念,描述充满人为的、不确定性风险的后工业社会,揭示风险的本质。2004年我国学者引入“风险社会”理论,进而衍生出我国刑法学界当前比较普遍关注和广泛研究的“风险刑法”理论。依据贝克提出的风险社会理论,人工智能所隐含的风险其实是风险社会中新型风险的重要表现形式,可以适用刑法对风险社会风险的应对策略,当然其应对策略也会有其自身的特殊性。
人工智能是人类社会最重要的科学进步,21世纪人工智能迎来新的发展高潮,在移动互联网、大数据、超级计算和脑科学等高新科技的驱动下,人工智能已经实实在在地进入了落地实践阶段。世界上第一个仿生人“雷克斯”在英国诞生;WaymoOne——全球第一台无人驾驶出租车正式商用;IBM研发的机器人医生沃森10秒为患者确诊并开出处方。人工智能已经逐步进入我们生活的各个方面中。尽管人类社会对具备超人类逻辑演算能力的人工智能,是否可以认作具备“人”的属性还存在很大争议,2017年10月26日,沙特阿拉伯在“未来投资峰会”上授予HansonRobotics公司研发的人形机器人“索菲娅”合法公民身份,这标志着人工智能已经获得首个公民的主体身份。
一般认为,根据智能水平的高低,人工智能的发展有三个阶段:第一阶段弱人工智能阶段,该阶段的人工智能擅长单一领域的技术和操作;第二阶段强人工智能阶段,人工智能将会在各个方面与人一样,特别是具有了独立解决问题的能力;第三阶段超人工智能阶段,是指人工智能在认知通识、科学创造力和社交技能几乎所有领域都超越人类大脑,即可以代替人类成为地球上的主导生命形式[1]。通行观点认为,我们尚处于弱人工智能时代。目前我国刑法理论界对于人工智能刑事责任问题的研究众说纷纭,没有达成共识,如何应对人工智能带来的刑事责任认定,如何认定智能机器人与相关人类主体之间的刑事责任归属与承担,都是最具争议性的话题,同时也是亟待应对的法律难题。
二、刑法面临的现实挑战
与人工智能的迅速发展相应的是人工智能给社会带来的犯罪风险,对各国刑事法治发展提出了现实挑战。
1.犯罪危害性难以预测。首先,一些传统类型的犯罪数量会逐漸减少,如机器人伴侣的出现,会使人类社会中性犯罪的比例降低;智能机器人在老龄家庭和教育、看护等机构的推广使用,会降低虐待类犯罪的比例。但是,人工智能技术可以使产品全面智能化,也一样会使犯罪工具和犯罪手段智能化,相应的,犯罪行为造成的社会危害也会越来越大。不法分子利用人工智能技术全面实现犯罪计划,一旦犯罪结果发生,很难得到修复。例如,人工智能一旦介入高流通、高风险的金融领域,会导致随时可能出现的雪崩似的灾难性后果[2]。如果人工智能的发展进入强人工智能、超人工智能时代,其犯罪危害性更大,甚至对整个人类社会产生威胁。
2.可能产生新的犯罪形式。人工智能开发的前提是建立庞大的数据库,但数据的大量集中本身就是一种风险,无论是对个人隐私还是国家安全。一旦不法分子攻击数据库,可以快速获取机密数据,并借助数据实施人类现在难以预测的犯罪活动[3]。例如2017年9月,浙江绍兴警方破获的全国首例利用人工智能技术盗窃公民个人信息的案件,彻底摧毁43个犯罪团伙,抓获犯罪嫌疑人193人,成功截留被盗的公民个人信息10亿余组,缴获赃款600余万元。由于现阶段人工智能犯罪还仅仅是行为人将人工智能视为作案手段和工具,尚未涉及智能机器人自主犯罪的情形,但是强人工智能超人工智能时代离我们并不遥远,法律应未雨绸缪,否则当其真正来临时人类或措手不及。
3.刑罚理念亟须转变。人工智能带来的影响还会改变相关犯罪的立法原意,使一些犯罪的构成要件发生变化,并进而影响到刑罚的适用,例如交通肇事罪。在美国,智能汽车被划分为五个等级,其中五级对应的完全自动驾驶汽车就是无人驾驶汽车。完全自动驾驶汽车通过计算机智能车载传感系统,感知道路环境,自主规划行车路线,并到达预定目标。由于各种不确定因素,无人驾驶汽车难免会发生交通事故,甚至在客观方面产生交通肇事罪的后果。现行刑法所规定的犯罪主体仅限于自然人和单位,对人工智能机器人实施的违法行为,现行刑法中由于犯罪主体不适格,而不能对其规制。而且,未来通过修改刑法将智能机器人作为犯罪主体存在,刑事处罚也存在问题。由于智能机器人不同于自然人和单位,生命刑、自由刑和财产刑无法适用于智能机器人,现行刑法的刑罚种类设置在人工智能的环境下存在缺陷。
三、人工智能风险的刑法应对
为了防止未来出现人工智能脱离控制的风险发生,我国刑法应该重视潜在预防与风险防控。
1.增设新罪,严密刑事法网。在人工智能产品的制造过程中,必须将人类社会中的法律,以及道德等规范和价值植入产品的系统中,并履行数据保护义务。基于这一义务的存在,有必要增设新的罪名。首先,增设滥用人工智能罪。滥用人工智能的行为可能将人类置于十分危险的境地。刑法是最后一道屏障,立法者应当谨慎划定犯罪权。人工智能的行为入刑,人工智能研发或使用过程必然变得更加谨慎,相应的监管过程也必然更加严密,人工智能的安全与风险问题也会相对缓解。其次,增设人工智能事故罪。人工智能产品的生产者因为其特殊地位,对人工智能的产品的安全负有特殊义务,如果因为没有履行这些义务,即使不存在主观故意,但是人工智能产品造成了严重的危害结果,其生产者仍然负有一定的过失责任的。
2.确立智能机器人的刑事责任主体地位。当下,人工智能产品致人损害构成犯罪可以分为以下几种情形:一是自然人故意利用人工智能产品实施犯罪行为;二是人工智能产品使用者过失操作和管理导致人工智能产品致人损害构成犯罪的;三是人工智能产品质量或者缺陷问题致人损害,构成犯罪的。对于第一种和第二种情形,人工智能产品致人损害行为应当视为其背后相关自然人责任主体行为的组成部分,结合其背后相关自然人责任主体的主观罪过予以分别处理。对于第三种情形的定罪归责问题,事实上属于产品质量责任问题。对于产品质量不合格引发的刑事责任问题,应根据生产者和销售者的主观罪过予以分别认定。未来,随着人工智能的高速发展,只要其通过深度学习产生了自主意识,并在自主意识的支配下脱离人类的控制,便有可能实施算法和设计之外的严重危害社会的犯罪行为。此时,智能机器人实现的是自己意志的行为,完全可能成为法律意义上的行为。
3.完善刑罚体系。我国刑法规定了四种刑罚种类:财产刑、资格刑、自由性和生命刑。现有刑罚种类无法适用人工智能机器人的理由归纳为:第一,智能机器人不享有财产权,适用罚金、没收财产于法无据;第二,智能机器人不享有政治权利和自由,其适用剥夺政治权利毫无意义;第三,智能机器人不享有人身自由权,无法适用管制、拘役、有期徒刑和无期徒刑等自由刑。根据智能机器人的特点构建。机器人犯罪的刑罚体系,包括三种刑罚措施:一是删除数据,就是将智能机器人实施犯罪行为所依赖的数据信息删除,使其恢复到实施犯罪行为之前的状态,也就是相当于抹去智能機器人的犯罪记忆;二是修改程序,就是删除数据这一手段已经无法阻止机器人主动获取数据,并实施违法,因而将其获取外界数据深度学习的能力,限制在程序所设定的范围内;三是永久销毁,就是在删除数据修改程序仍无法降低实施了犯罪行为的智能机器人的人身危险性时,只能将其永远销毁。必须承认,以上人工智能犯罪的刑罚体系是对智能机器人刑法适用的有益探索[4]。
总之,面对人工智能技术的发展带来的风险,刑法学界既不应过度反应,将人工智能技术视为洪水猛兽,禁止或阻碍其发展,也不应对人工智能可能给人类社会带来的危害漠然置之,我们应该做到未雨绸缪,深入研究,努力探索当代人工智能犯罪的刑法规制路径,防控人工智能时代的社会风险,对社会秩序的稳定寻求刑事对策,保证人工智能技术为社会带来正面的价值。
友情链接: |
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有 如有不愿意被转载的情况,请通知我们删除已转载的信息。 联系方式:电子邮件:1053406363@qq.com 豫ICP备2023024751号-1 |