业务合作发布作品

    选粹 | 达朝玉:强人工智能自动驾驶汽车的刑事责任认定——伦理原则、理论可能与解释方案

    平阴县检察院头像平阴县检察院头像
    平阴县检察院2023-09-01

    来源

    2022年第12辑(2022年第2辑)

    作者简介

    # 达朝玉

    达朝玉,东南大学法学院2021级刑法学专业博士研究生,人民法院司法大数据研究基地特约研究人员。


    引用格式参考:达朝玉:《强人工智能自动驾驶汽车的刑事责任认定——伦理原则、理论可能与解释方案》,《法理——法哲学、法学方法论与人工智能》2022年第8卷第2辑,第149-168页。

    #

    摘要

    近年来,人工智能机器侵权的刑事责任问题成为了学界讨论较为热烈的话题,但是基于各方论战的话语权不对称,展开刑事责任之因应的讨论始终未能取得一致看法。伦理优先于法律,强人工智能时代需要创新伦理原则,不能简单将责任归属于自然人。强人工智能自动驾驶汽车问题应接受刑法审视,强人工智能具有成为刑事责任主体的理论可能性。科技创新行业需要有“试错空间,应当允许一般风险的发生,不宜将其作为过失行为认定。在人机交互过程中,如果是技术层面的程序设计的重大失误或者硬件质量不过关,应当认定为生产者和制造商的过失行为,追究刑事责任。如果事后查证是由自动驾驶汽车自身行为导致的损害,而驾驶人或者制造商没有重大过失或者故意,就应当认为是自动驾驶汽车自身的故意行为,追究刑事责任。


    一、问题的提出


    人工智能是一个抽象的概念,无论是自然科学还是社会科学,都无法脱离具体实物而进行研究。强人工智能是人工智能的高级阶段和未来发展方向,但是,很多学者对强人工智能的研究嗤之以鼻,认为这是一个不严谨的研究方向,并且认为与之相关的研究都属于幻想式的研究。大部分学者在概念的先前限定和逻辑鸿沟难以跨越的情况下,坚信强人工智能时代永远不会到来。但是,当下的科技水平和计算机语言、统计学知识、形式逻辑的推演等现有的知识体系并不会永远停留原地。其实,强人工智能的实现并不遥远,对其进行研究具有重要的价值。


    在现实生活中,人工技术领域能与社会大众接触最多的就是自动驾驶汽车。一次次技术创新都让自动驾驶汽车愈加智能。人类一方面不得不越来越多地依赖于人工智能,另一方面却又不得不面临“风险的逐渐扩大”局面。根据国际自动机工程师学会(SAE标准)的分级标准和当下最前沿的技术发展,虽然当下的自动驾驶汽车仍然无法摆脱人类的驾驶和操作,但也即将步入L4、L5(强人工智能)阶段。因此,对人工智能的研究不能采用机械的、僵化的“非好即坏”的思维模式,要充分掌握其发展规律,无论是自然科学还是社会科学都要进一步跟进。自然科学面临着技术层面的突破和管控,社会科学则需要回答伦理、哲学、法律体系框架下的问题。人工智能的发展要有方向、有原则,不能放任技术的野蛮生长,安全可控是技术革命最应该重视的问题,也许这种重要性要强于技术发展本身。正如刘艳红教授认为,在大数据与人工智能技术的发展过程中,法学研究将发挥理论支撑、政策支撑与应用支撑的关键作用,其重要性与紧迫性日益凸显。


    本文首先分析了现有人工智能技术的应用发展,认为有必要对强人工智能的安全问题进行前瞻性的思考。因为,当下的弱人工智能及其法律问题并无实质上讨论的需要,纵观学界概况,研究人工智能的观点,抛开表面的文字修辞,核心逻辑几乎一样。相当多的学者将强人工智能视为弱人工智能来看待,再讨论这种弱人工智能无非是“新瓶装旧酒”,并无更多讨论空间。因此,本文主要将论域限定在强人工智能时代这个特别的时期,以试图开辟新的话题领域。当然,可以预见的是,这必将引起研究人工智能保守主义学者的反对。不过,引起争鸣也正是学术研究的生命,能够进行观点碰撞和交流是进步和学习难能可贵的过程。本文聚焦强人工智能的具体应用,即自动驾驶汽车。对当下的人工智能伦理原则提出了质疑,以强人工智能自动驾驶汽车刑事责任为对象进行探究,试图将刑法学和强人工智能的研究进一步合理化。


    二、现有人工智能的应用发展与安全反思


    从过去,上世纪四十年代全世界第一台计算机ENIAC诞生伊始,就意味着人类探寻电子智能文明的道路已经开始。1950年被现代人称为“人工智能先驱”的计算机科学家阿兰·特灵在其人工智能奠基之作《计算机与智能》上提出了未来的智能机器会超过人类智能的设想。1954年,Alan Mathison Turning 在《Solvable and unsolvable problems》文章中正式提出了图灵测试。测试证明第三者无法辨认人类和人工智能机器之间的反应差异。


    到现在,人工智能技术已经得到了飞速发展,其依托当下互联网、大数据、计算机科学技术的创新变革,并产生了深度学习(Deep Learning)技术(人工神经网络研究等概念)。当下的技术水平主要以计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等),涉及到计算机科学、心理学、哲学、语言学等诸多学科内容,它最终目的是达到像人一样具有分析学习能力,能够识别文字、图片、声音等数据。实践当中,无论是与人类极为相似的人类计算机索菲亚(Sophia),还是战胜世界围棋冠军的AlphaGo,它们的主要工作原理都是基于“深度学习”系统,变得愈发复杂和智能。


    2017年以来,美国、欧盟、英国、日本、韩国、俄罗斯、加拿大等主要国家和经济体相继发布人工智能研发战略。为了强化国家战略科技力量方面,我国在《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》(下文简称“十四五”规划)中明确提出,要瞄准人工智能前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目。这标志着科学技术的发展势不可挡,人工智能具有重要的战略意义。


    然而,人工智能的高速发展的同时也伴随着巨大的安全风险。虽然,人工智能的技术革新让人类对人工智能时代的到来充满期待,但是,也不免感到迷茫和充满疑虑。物理学家Stephen William Hawking、计算机大佬Bill Gates、科技大佬Musk都对人工智能可能具有自我思考的表示过担忧。例如,霍金在去世前留下警示的预言,如果对人工智能管理不当,它可能是人类最大的灾难,高智能且会思考的机器会终结人类的文明。那么,按照现有人工智能技术发展的趋势是否会在未来给人类带来灾难?牛津大学的Vincent C.Muller和Nick.Bostrom两位学者就以人工智能研究领域的170名专家群体为研究样本,做出了一个权威的调查报告。该调查结果表明50%以上的专家认为如果依照现如今人工智能的发展速度和发展方向,强人工智能将于本世纪中叶问世,它会给人类社会产生巨大的变化。而且,近一半的专家认为强人工智能会对人类造成负面的影响。基于此,便对未来如何更好、更安全的发展人工智能技术提出了要求。


    人工智能依托时代发展过程中计算机科学技术和相关领域前沿知识的技术,在过去发展每一个时间节点上都没有停止脚步。思维没有“固步自封”是人工智能发展到今天具有重大突破和一系列成就的重要原因。信息社会的构建和人工智能各个领域的具体应用都是在计算机技术的基础上发展起来的,人工智能是信息技术发展到高级阶段后的必然结果。然而,人工智能在目前计算机科学具有支撑能力的情况下,已经可以对人类活动进行模仿,甚至在多个领域远超人类。这意味着,人工智能给人们带来了无限遐想的同时也蕴含着巨大的安全风险和伦理挑战,引发了法学界团体的危机意识。


    三、创新伦理原则:强人工智能法律责任认定的前提


    任何事物既有个性,又有共性,既要考察它的一般性,又要考察其特殊性。所有强人工智能刑事责任认定之前,它都共享同一个伦理原则。强人工智能技术支配下的自动驾驶汽车,只具备教义学理论上的特殊性,而非伦理原则基础上的特殊性。因此,有必要对强人工智能伦理原则的一般性展开论述。伦理优先法律。在研究法律责任问题之前,也应当考察道德伦理基础。伦理是为了更好的维护公共利益和安全的道德和准则。伦理为法律的内在道德性提供正当性的理由和依据,立法伦理指出法律实践的目标和愿景。进入强人工智能(AGI)时代,人类会面临重大安全风险。强人工智能愈加复杂化,致使当下的人工智能伦理原则无法助力于强人工智能技术的发展。


    首先,应考虑的第一个问题是,强人工智能与传统智能产品存在很大的差异。强人工智能的复杂性来源于其独立意志,这也是人工智能时代划分的标准。人工智能是一种技术,按照其发展历史及未来畅想,学者们通常都是基于一定的标准来区分AI的不同时期。绝大多数学者的观点主要分为两个时期,即弱人工智能和强人工智能。也有学者分为三个时期,普通人工智能、弱人工智能与强人工智能三个时期。区分的标准是:是否有深度学习的能力和是否具有独立意志,而多区分出来的一个时期实际上是部分学者做出的更为细化的区分,其认为弱人工智能和普通人工智能相比,具备更高级的智能。也有学者提出了更高端的人工智能(Artificial General Intelligence)——超级人工智能的概念。但从客观角度来看,超人工智能的概念过于“前卫”且不准确,所以这只能被视为是对计算机技术前景无限期待的概念。所以使用强人工智能的概念足以表达对高级智能的描述。而且,如果从基础逻辑和划分标准等因素来看,上述两种区分方式背后的逻辑机理是一致的。因此,所有研究人工智能领域的专家和学者们应当统一标准,最好适用“分为两个时期”的标准,这种区分简单易懂,在进行理论探讨、案例分析及制度构建时能够统一话语,更利于解决问题和科研交流。


    因此,为了准确把握事物发展的动态过程和质变所引起的应对策略的差异,划分人工智能时代具有重要意义。强人工智能已经从文本概念走向现实世界,当下人工智能技术已经成为世界大国未来具有重大战略意义的科技。对于智能产品中“智能”的理解维度不能还停留在传统的计算机软件和程序设计层面,而是应该放眼全球结合科技前沿,用更加客观的信息推定智能水平。否则在研究方向和人工智能的理解就会出现基础性的偏差,与科研目的相去甚远。


    其次,应当认识到的另一个问题是,当下人工智能的伦理原则无法助力强人工智能时代。从自然科学技术到人文社科研究的“鸿沟”跨越后首要的落脚点并不应该是法学,而是应当首先接受伦理的检视。为了防止在人工智能技术治理问题上陷入“科林格里奇困境”,应该提前判断和研究。无论未来人工智能技术发展的水平程度和技术方向如何,对人工智能进行伦理规制,无疑是基本共识。


    实际上,人工智能在产生伊始就早已提出了人工智能的伦理问题,Alan M·Turing在《智能机器》中表达了对于人工智能的技术快速发展,而相对应的伦理发展与制约相对滞后的担忧。近年来,由于人工智能技术的崛起,就其伦理问题在全球范围内进行了逐步深入的讨论。例如,2016年英国标准协会(BSI)通过《机器人和机器系统的伦理设计和应用指南》。再例如,2017年1月人工智能研究者在美国加州的阿西洛马召开了“阿西洛马会议”,会议的重要成果就是提出了规范人工智能发展的《阿西洛马人工智能原则》(Asilomar Artificial Intelligence Principles)。还有2019年4月欧盟本周一发布了一系列关于发展人工智能(AI)伦理的新指南,以此作为企业和政府开发人工智能伦理应用的指导方针。


    从上述伦理规范可以看出,伦理原则对于人工智能的重要意义,它是人工智能发展的方向和责任来源。但是,当前的人工智能的伦理原则无法适用于强人工智能。例如《阿西洛马人工智能原则》中提出,“设计者是首要责任人,使用者是直接责任人,相关利益者有不可或缺的间接责任”。再例如,英国标准协会的《机器人和机器系统的伦理设计和应用指南》中提出,“机器人的设计不应该以杀害或者伤害人类为唯一或首要目的”,“责任主体应该是人类而非机器人”,“任何机器人都应该有责任人,这个责任人应该为机器人的行为负责”等等。在当下,这些伦理规定确实解决了人工智能道义责任的归属性问题,较为详细的指认了相关责任人。按照当下的智能水平,这无疑是公平和易理解的。但是,当下这些伦理却无法助力于拥有自由意志和深度学习能力的人工智能技术的发展。


    申言之,当Alpha Go战胜围棋世界冠军、克隆技术、基因编辑婴儿技术诞生时,无一不是给全社会的一枚重磅炸弹,震惊了所有关注者,也将人类促逼到一个新的窘境。强人工智能是具有独立运算能力和能够在自主意志下决策并作出行为的主体。人类的价值观和它的最优选择之间不可能永远一致,因此发生冲突后的选择以及选择之后的后果由谁来承担责任,不能再简单适用当下的伦理原则。如上文,纵观全球范围当下的伦理原则基本上以自然人为最终的责任承担者。但是,鉴于强人工智能的特点,简单地让使用者和研发者承担责任不仅有失偏颇促成不公,而且这样的价值导向会压抑科技行业的发展。因此,需要结合当下科技前沿和技术特征,在伦理方面进行具体的创新和构造,这种创新和构造是极为重要的。


    以科研伦理为例,科研伦理具有非常重要的导向意义。在开展科学研究、技术开发等一系列科技活动之前,无疑要遵守社会普遍意义上的价值取向和行为规范,缜密地权衡利弊以达到安全可靠,实现可持续发展。伦理约束是促进科技事业健康发展的重要保障,我们国家与时俱进,高度关注这一领域的探索和发展。我国在2022年3月出台了《关于加强科技伦理治理的意见》。其明确指出,科技伦理治理存在体制机制不健全、制度不完善、领域发展不均衡等问题,已难以适应科技创新发展的现实需要,并提出了“伦理先行、依法依规”的治理要求。伦理优先于法律,这意味着必须将开展科技伦理治理工作提上日程,并进一步加快推进科技伦理治理法律制度的建设。


    综上所述,展开法学研究之前首先接受伦理的考察是必要的,这回答了我们为什么要研究强人工智能,为法学研究铺垫了底层逻辑。不过,人工智能并非是一个物体,而是技术的一部分。面对种类多样科学技术问题而因技术层面的理解产生分歧时,解决争议最好方法就是对具体技术进行结构,并通过现象学进行分析。因此,面对强人工智能还需要进一步从具体的应用入手进行解释和探究。


    四、强人工智能自动驾驶汽车刑事责任认定的争议与可能


    自动驾驶汽车是AI技术的具体应用。汽车不具有法律主体资格,搭载强人工智能技术的自动驾驶汽车具有法律主体资格。因为,强人工智能技术可以结合很多产品。也许它会和汽车形成一个整体成为一个“主体”,又也许它成为一件高智能家具或机器人。但其本质都是因为拥有强人工智能而具有法律主体资格。本文正是利用自动驾驶汽车这一种具体应用,来探究强人工智能的相关问题,主要是刑事责任问题。


    (一)强人工智能自动驾驶汽车问题何以应由刑法审视?


    刑法作为规制人类社会生活的法律规范,其目的在于保护法益,任何侵犯或者威胁法益的行为都会进入刑法的视野。因此,在经过了哲学、伦理道德层面的检视后,强人工智能自动驾驶汽车也应该接受刑法的审视。


    现实中,绝大多数交通事故都是源自于人类的驾驶习惯和疏忽大意导致的,所以人类自身的不当操作是最大的安全隐患。现如今,自动驾驶汽车作为集中了计算机技术、自动化控制技术、现代传感器技术、通讯、互联网等高新科技综合体,在很大程度上革新了安全驾驶的方式。对比出其与传统汽车,自动驾驶汽车具有两个方面的优势:一是,可以有效破解人为不安全操作引起的事故风险。这里并非是指完全将行驶操作权“让渡”给自动驾驶汽车,而仅指在智能层面拥有的预防作用(比如为了安全驾驶,喝酒后便汽车无法正常启动或者汽车行驶过程中发现驾驶员疲劳驾驶后开启智能模式提醒驾驶员减速停车等)。二是,不怕交通道路环境等相关因素。自动驾驶汽车本身就有其独特的运行方式:硬件方面依赖于雷达、道路定位、摄像头、红外扫描等技术。软件方面依托于人工智能操作系统,拥有研发组织机构编制的程序和大数据下的特殊算法。具备上述这些技术,汽车就能够自我定位、检测安全路况,自动制定路线并且完成运输目的,体现了其自动性和智能性的专属特点。


    但是,近些年来自动驾驶汽车发生的多起事故让人们开始对它的安全性饱受质疑。因为,按照上述自动驾驶汽车的优越的功能来看,道路交通理应是更安全的,但事实上,智能汽车投入使用后发生了不少安全事故,人们对它的安全性开始担忧。谈及自动驾驶汽车的案例,耳熟能详的是2016年美国佛罗里达州特斯拉自动驾驶汽车案件和2018年在美国西部发生的Uber自动驾驶汽车致死案件。那么人工智能导致严重的侵权损害后果的行为该如何规制,便引发了刑法学者的思考。


    按照刑法理论来看,法律的性质和功能就是调整特定社会关系的行为规范。犯罪也正是由于某个行为侵犯了刑法保护的“国民生活利益”,有刑法规制的必要性。法益侵害事实起码应该具有两种基本样态,即产生实害结果或者具有危险可能性,且至少有“危险”才可能构成法益的侵犯。传统刑法学认为,危害行为是在“人的思维和意志支配下”实施的危害社会的举动。但很明显,这样的定义已经不再适用于强人工智能,因为强人工智能可以满足“思维和意志支配产生行为”的要素,也可以满足“社会所不允许的危害行为”这个要素,唯独欠缺一个行为主体资格的要素。


    具言之,强人工智能和传统机器有本质区别,传统机器无论设计有多么精妙、用途有多么新颖,其也只是工具,大多按照预先设定好的程序运行。因为该类机器没有任何自主性也不像强人工智能一般具备深度学习、大数据处理等能力,所以对人类生活无法造成困扰。面对即将出现的强人工智能,就不能在简单的将其当作传统的工具来对待。作为一种介于工具与自然人之间的一种“特别主体”来看,刑法的规制导向作用就凸显出来了。相较于传统刑法,评价和处罚某一行为都是在做出危害行为之后,而现代刑法很多领域更为关注风险的规制和安全的保障,认为应该将科技风险趁早纳入调整规范。那么,强人工智能汽车(即L4、L5阶段的智能汽车)对人们会产生怎样的影响?这一时期的智能汽车对刑法的冲击有哪些?法律层面因果关系的认定和责任承担都是怎样的?这些问题都亟待刑法学者回应。


    (二)强人工智能自动驾驶汽车刑事责任认定的理论争议


    1.强人工智能支配驾驶是否等同于“无人驾驶”?


    混淆智能汽车、无人驾驶汽车和自动驾驶汽车的概念是社会大众、新闻媒体及学者论文中的普遍现象,这在一定程度上阻碍了相关学术观点的理解,但是,概念统一是学术交流的重要基础。有必要将它们予以区分:


    大部分观点认为无人驾驶汽车就是自动驾驶汽车,但其实,按照文义理解和人工智能发展原理,无人驾驶汽车应包含自动驾驶汽车,而自动驾驶汽车却不一样能够达到无需人管理的智能程度。基于此,无人驾驶汽车是自动驾驶汽车发展的高级阶段或终极阶段,是完全自主的自动驾驶汽车。无人驾驶汽车是采取“电动汽车+无人驾驶”模式,车辆控制权主要在“汽车本身”,且充分汇聚电子工程技术、机械技术,是拥有自主思考能力的超人工智能技术的集合体。它是跨过强人工智能的更高级的产物。换言之,无人驾驶汽车必然是强人工智能,但强人工智能不一定能达到无人驾驶的程度。


    而自动驾驶汽车(Autonomous vehicles)在很多刊物和网络自媒体来看都认为它是无人驾驶汽车,但如上文观点,这显然是混淆了基础概念。本文认为,自动驾驶本质上是指可以帮助人类驾驶员进行优化路线选择、智能避让、选择最优方式等,具有“辅助驾驶”的功能,它主要是是为人类驾驶员的日常驾驶提供更好的安全保障,通过人工智能的技术优势来弥补人类驾驶员在驾驶操作、理性选择和反应时间上的不足,现在实践当中,还无法直接将汽车的控制权完全地交给机器,虽然机器的智能程度可以完成一定路段(主要是无安全风险路段)的自动驾驶任务,但是和完全脱离人控制还是存在很大区别的,这是自动驾驶汽车和无人驾驶汽车在定义和逻辑上的本质区别。


    综上所述,即使是强人工智能自动驾驶汽车,也无法摆脱人类的控制,人机交互仍然是其最重要的特征。本文认为智能驾驶汽车、自动驾驶汽车和无人驾驶汽车都属于智能汽车的种类之一。但无人驾驶重点在于“无人”,也主要依靠车内的以强人工智能、大数据运算系统来代替驾驶员,实现“无人”驾驶。按照现有技术来讲,还无法实现真正意义上的“无人驾驶汽车”,因为它是自动驾驶汽车成熟化的产物,起码要达到L5级别以后才有望实现。因此,在研究自动驾驶汽车和人工智能时必须统一概念,否则各方论战的话语权不对称,难以形成有效的讨论结果。


    2.如何评估强人工智能自动驾驶汽车的智能水平?


    根据国际自动机工程师学会(SAE标准)的分级标准,自动驾驶汽车智能水平有L0至L5五个级别(见表1.1)。目前市场上绝大部分量产汽车都处于L0或L1级,最先进的特斯拉的ModelS/X系列、沃尔沃汽车系列的Pilot Assist智能领航辅助系统可以达到L2-L3级别,国产汽车中,长安汽车旗下的“UNI-T”系列、上汽荣威的“MARVEL-R”系列、广汽新能源和东风日产、上海大众等汽车制造商都已经开始致力于L3级别汽车的研发和量产。2019年年底,百度公司和一汽汽车公司联手开发的所谓L4级自动驾驶汽车——红旗EV问世。但是,笔者认为虽然其商业噱头成分较大,如果严格按照表格中对应但级别功能,实质上是没有达到SEA标准中L4的级别的。不过,这一信号意味着自动驾驶汽车的发展即将步入L4、L5阶段。那么,从法律角度思考,是否随着汽车智能程度的提高,责任的归属判断就越模糊?答案是否定的。如表所示,L2级别以下只能属于智能辅助驾驶,驾驶员仍需要负责所有的驾驶任务,一旦出现交通事故,责任是由人类驾驶员来承担的,这点没有疑问。但是,L5级别的自动驾驶汽车属于强人工智能,完全不需要人类驾驶员接管驾驶,全部是由车辆对结果负责。这点也无可厚非。这两种智能级别的在治理逻辑上反而简单,因为较容易确定问题出在哪里。而最复杂的问题恰恰是目前处于SAE分级的中间状态的L3、L4级别,造成事故后的法律责任归属十分模糊。尤其是L4级当中,自动驾驶在道路行使中需要和人类驾驶员来回进行交接车辆的“控制权”。学者王莹认为,这里面“人车交互”的过程非常复杂、不具有规律性,而且需要多学科进行探讨和判断。聚焦法学的研究,汽车的“控制权”是责任归属划分的依据,厘清责任依然是重要的问题。



    3.强人工智能自动驾驶汽车的治理核心究竟为何?


    算法的法律规制具有重要意义。随着未来大数据与人工智能更深度地运用,未来算法的应用场景将更为广泛,在自动驾驶、公共管理、司法等领域与场景中,算法都将发挥举足轻重甚至是决定性的作用。人工智能技术主要依托于强大的算法功能。算法起初主要是在数学运算和具备实验场所进行的规律总结。以往算法更多是数学家或者程序员所关注的对象,但由于人工智能开始呈现越来越大的影响,日益成为当下社会关注的问题。现如今的技术实现了互联网和大数据收集等技术的结合,这让算法真正具备了“灵魂”,拥有了“智慧”。因为算法能够挖掘出一些数据背后隐藏的有价值的信息,甚至可以根据信息处理和分析后的结果给人们的行动提供指导和建议。有学者认为,在特定情况下“算法”已经可以代替人类决策和行为,并且在很多实践当中已经开始使用,以满足人们辅助决策的需求。


    实际上,法学界对人工智能三个核心都进行过分析,分别是大数据、算力和算法。但相较于大数据和算力,算法看起来更具有规制可能性,因而产生了“核心”的外观。因此,治理的思路在于无论算法应用到什么领域,都应当结合该领域的行业特点、技术特点进行法律规制。有学者认为,法律作为调整社会关系的规范,应当更加关注在设计、部署和应用算法的相关主体上。而本文认为,强人工智能时代,算法及代码等技术的法律规制只是具有事前规制的功能。不能将所有的后果都交由设计开发者承担。经过算法及代码设计的事前规制后,还要解决产品所有者、使用者的注意义务,故意与过失等复杂的问题。则需要在事后层面价值判断的问题上,进一步认定相关责任主体的法律责任。


    (三)强人工智能自动驾驶汽车刑事责任认定的理论可能性


    如上文,在强人工智能自动驾驶汽车刑事责任追究之前,应当先回答刑法介入必要性和刑事责任主体可能性两个方面的问题。这是刑事责任追究的基本逻辑。


    一方面,刑法应当及时介入强人工智能自动驾驶汽车领域进行规制。面对自动驾驶汽车侵权问题是否该追究刑法责任,学界观点呈对峙状态,即积极预防性刑法观和刑法的谦抑性(消极的刑法观)至今也无法形成共识。有观点认为,科学技术给现代社会带来颠覆式的变化,也由此衍生出社会风险治理领域的问题,而积极预防刑法观与刑法的谦抑主义也会产生理论上的碰撞。尽管有诸多争论,但一个基本共识是,L3级别以下的自动驾驶汽车是无需重新立法的。皮勇教授认为,从严格意义上来说L1、L2级别的自动驾驶汽车智能车辆不属于自动驾驶汽车,国内外相关立法及研究针对的都是L3级及以上智能等级的汽车,它们才是自动驾驶汽车交通事故相关刑法学研究的对象。这和本文的观点是一致的,笔者认为,L1和L2级别的智能车辆属于完全可以由产品责任侵权寻找法律救济,就算是L2级别的弱人工智能也同样适用产品责任,也是没有法律主体地位的。但尽管如此,谈及自动驾驶汽车刑法是否该介入时,很多学者依然认为刑法应当保持谦抑。例如,“要理性面对自动驾驶汽车发展中出现的问题,刑法不应主动介入,不能过度夸张自动驾驶汽车给经济社会发展所带来的挑战”。针对此观点应当辩证的看,人工智能的崛起是新的知识领域,刑法的确应该保持一定谦抑,但是也不是说谦抑到不作为和不应该研究。对此,就有学者提出,刑法毫无疑问是要积极介入的,例如,“应当将“程序设计者”纳入“生产者”的范畴之内,作为该罪的主体进行责任规制。”但在本文看来,L3级别之后的自动驾驶汽车的法律追责问题只会在人工智能的智慧愈加提升上变得更为复杂和难以判断。


    质言之,强人工智能技术下的自动驾驶汽车是需要刑法介入并进行规制的。相对L5级别,这个程度的汽车虽然是最高级的阶段,但是它的治理逻辑反而是最简单的。因为,完全智能化的自动驾驶汽车(或者其他强人工智能的具体应用)是完全能自主觉得行为的,所以不难认定责任出在哪里,无非是对因果关系的判断重新塑造或者解释的问题。实际上,L4级别的自动驾驶汽车才是真正的难点。原因在于:人机互动,难以区分究竟是驾驶人的行为还是汽车的自主行为,难以分辨是驾驶人的注意义务过失责任的认定,难以判断汽车算法的主观故意。正如刘艳红教授认为,“在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,……仍是一个无法得到解决的难题,人工智能‘黑箱’释明难题决定了人工智能行为的不可解释性”。因此,本文认为,在刑法介入的同时,与之相匹配的解释论和因果关系理论也亟需跟进。


    另一方面,需要回答刑事责任主体可能性的疑问,这也是最核心的问题。刑法理论的最终的逻辑回归点是刑事责任主体的问题。因此,研究人工智能技术背景下法律主体资格问题、刑法地位的研究绝对不能停留于表面。我们不仅需要从刑事责任的构成要件入手深入研究,而且还要从刑事责任主体资格入手进行分析。传统理论认为刑法中犯罪主体是实施犯罪行为并承担刑事责任的自然人和单位,有且仅有这两个。犯罪主体作为刑法当中重要的问题。既然是对未来事物的考虑,就还需探究传统刑事责任理论是否具有兼容性。学界在面对AI刑事责任主体的问题上,应当具备有两种思考模式,一是有无成为主体的可能,二是有无设立主体的必要。很多学者混为一谈,但实际上,这两者的思考方向是截然不同的,对后者进行研究应当基于对前者的确立,即应当先谈“可能”再谈“必要”的基本逻辑。下文就此做出具体分析:


    第一,强人工智能成为刑事责任主体的可能性分析。以色列奥诺学院法学院哈列维教授(Gabriel Hallevy)认为,除了自然人和法人概念之外,如果满足刑法其他相关的要件要素,智能机器这样一种“新型主体”可以被添加到现有刑法的范围中。这里满足刑法相关要求主要指的是符合犯罪的构成要件。有学者提出,智能机器愈加智能和复杂,出现能在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。强人工智能可以实施符合构成要件的行为,如果没有其它违法阻却事由的前提下,具有承担刑事责任的能力。本文表示认同,承担刑事责任的基础是责任主体在其自由意志下所作出了值得刑法处罚的行为,强人工智能具有较高的控制能力和自主意志。客观层面完全满足符合构成要件的违法性要求,主观层面也具备有责性的理论追究可能性。但也有观点认为,传统观念的意识、意志、意思表示等概念都是将人类作为参考样本设定的,那么,面对强人工智能完全用人类的自主意识作为意识判断的标准,其科学性和合理性是值得商榷的。本文并不否认这一观点,显然这是一个全新的思考方式,事物发展是动态的,用固有思维去评价“超出目前认知范围的事”不具有全面性。不过,也有学者指出,人类本身的“智能体现”是以大脑意识和思维、感受和知觉等条件为基础,所以对未来的人工智能进行分析判断时也不能完全要求其具有和人类完全一样的主客观条件,而且智能机器的意识自由的表现形式很可能跟人类有差异。因此,我们在重新审视强人工智能时期的智能产品时应当考虑到其与人类的差异性,同时需要对刑法理论做出符合“强人工智能特征”的重新解释。


    当然,必然会有很多学者站在对立面来否定强人工智能成为刑事责任主体的可能性。例如有的观点认为,人工智能不可能具备独立于人类权利和价值体系,在善恶观和伦理观上也不具备与人类相当的认知水平,将人工智能拟制为犯罪主体的设想不具有合理性。对于这一观点,其中关于不具备独立于人类权利和价值的思路是值得肯定的,但这种观点没有跳出弱人工智能的牢笼。在现实生活中,善恶观和伦理观在社会当中的每个人的认知水平都不一样,即便是自然人也无法满足这一观点,又何苦为难智能机器呢?也有观点认为,无论是当前的低智机器人,还是未来的高级甚至超级智能机器人,都不具有刑事法律的主体资格,否则势必会导致刑事责任体系的崩溃。本文对这种观点存疑。这种逻辑似乎认为,如果因为未来某件事会破坏现有的规则,我们就不该去承认它的存在。这就好比,8岁小孩子成年后会长高、体型会变大,会撑破8岁时买的衣服,所以我们现在不应该让他长大,也不该承认他会长大。这并无道理。因此,这一观点太过于保守,有待商榷。另外有学者提出,强人工智能不具有理解并遵守法律规范的能力,其行为属性判断无客观标准。这一观点的核心意思是,我们不可以强行用人类的行为规范去匹配智能机器的行为,主要是因为生理构造和自由意志上有区别。对于这个观点,如前文所述,笔者依然认为,强人工智能最大的特点就是具有自主思维和独立意志,虽然和人类相比具有很大差异,从哲学角度出发的确很难用人类的“思维”“意志自由”等概念进行照搬。但是,按照人工智能的发展,从理念上具备刑法上的认知和意志控制能力并非难事。


    第二,强人工智能下刑事责任主体暂无设立必要。具有成为刑事责任主体的可能性但也未必“急需”在现行刑法中设立主体资格、确定其刑法地位。有观点认为,我们认定人工智能的刑事责任主体地位完全是出于功利主义的考虑,所以无论何时都应该把保护人类利益放在首位,且在未来理论研究和立法工作上都应该具备大局观和前瞻性。的确,现阶段刑法犯罪主体概念在人工智能背景下处于缺位状态,但在人工智能法律规制方面不应过于保守。刑法虽然具有谦抑性,但是对于社会敏感问题要始终保持关注。在讨论强人工智能体的刑事主体地位时,如果一如既往的以片面的、静态的科技观看待强人工智能,对于刑事主体资格问题避而不谈,或者完全按照人类的价值体系作为衡量标准,那么人工智能的法学研究就会止步不前。有学者认为,按照我国的刑法规定,主体资格的设立必须要考虑到“承担能力”的问题,即有能力承担刑事责任,也有能力接受刑罚。对于这个问题,有观点认为人工智能是完全不可能具备辨认和识别能力的,也无法感知痛苦,现有刑罚体系对其没有意义。本文对此表示肯定,因为就目前全球的技术发展水平来说,设立主体的做法为时过早,现阶段无法评价人工智能的“刑罚适应能力”,严重缺乏实际操作可能性,不具有实际意义。有的学者从“自由意识”角度去分析人工智能刑事主体资格,如果没有自由意识,就无法判断辨识能力,也不具有控制能力,对人工智能实施“删除信息、修改程序、销毁”等特殊刑罚方式无法发挥刑法保护法益的机能。但本文认为,上述理由只能成为其无法像人类一样承担责任的理由,而不能否定其作为犯罪主体的可能性。如前文所述,强人工智能时代的危害结果,必然需要一个归属主体,应当诚然他具有成为刑事责任主体的可能性。至于该如何其承担责任则是另一个需要讨论问题。


    综上所述,(SAE标准)的分级标准已经展现出强人工智能自动驾驶汽车的发展趋向性及人机交互过程的复杂性。如果依然用传统的归责思维,对使用者和研发者过于苛责。更重要的是,强人工智能完全具有成为刑事责任主体的可能性,能够成为承担刑事责任的归属主体,即使当下不必立刻修改法律,但亦不可否认这种可追责性。


    五、强人工智能自动驾驶汽车刑事责任认定的教义学展开


    回应了强人工智能伦理原则的普遍性和成为刑事责任主体的理论可能性问题之后。就可以从特殊性角度进一步展开对强人工智能自动驾驶汽车刑事责任的具体认定。法律责任最终该如何分配是法学研究的主要内容,是公平正义的外在体现。在强人工智能自动驾驶汽车刑事责任认定问题上,应当以现实的刑法归责理论为基础,确定适格的行为主体,进一步客观地解决及厘清自动驾驶汽车所有者、设计者、制造者和使用者的刑事责任归属问题。这是刑事归责中必须要解决的问题。


    (一)自动驾驶汽车与车辆使用人“共同行为”的责任认定


    如上文,对于自动驾驶汽车责任认定而言,L4级别的责任认定要复杂于L5级别。在强人工智能技术的加持下,L4级别的自动驾驶汽车体现“人机互动”的特征,这种人机混同接管和混同控制的模式会在行为分辨时愈加复杂化。就技术层面而言,解决办法就是把“过失和竞合”问题提前在技术层面予以消解。例如,可以在设计相关程序或者编写代码进行事前预防,将必要的处理规则、伦理原则“写”进系统。也可以通过采用类似飞机“黑匣子”进行数据记录,判断行为发生时的行为究竟是自动驾驶汽车行为还是驾驶人的操作行为,以此作为在事后的责任判断上依据的客观数据。但是,这里需要注意一个问题,科技的发展应当允许一般风险的发生。本文认为,如果事后查证是由自动驾驶汽车自身行为导致的损害,除非是重大程序或者代码设计问题,一般情况下都不应当对制造者进行追责。原因在于,科技创新行业需要试错空间。现实生活中,由于严苛的问责有汽车制造商L4级别的汽车开始面临取消生产的境地。


    因此,具有自由意志能够独立作出行为的自动驾驶汽车(人工智能主体)在和驾驶员共同行为下完全可以按照刑法中共同犯罪理论来进行责任认定。具言之,共同犯罪是指两人以上共同故意犯罪。传统理论一般首先是讨论共同犯罪的成立条件,其次是分析共同犯罪的形式(例如是否属于事前通谋),最后是论述主犯、从犯的问题。因此,共同犯罪理论所解决的问题是,将不法事实归属于哪些参与人的行为。本文认为,强人工智能自动驾驶汽车和车辆使用者在成立共同犯罪上没有理论障碍。共同犯罪成立的条件是,两个达到刑事责任年龄、具备刑事责任能力的主体,有犯罪的故意,相互配合相互联系形成一个犯罪活动整体。其中,关于主体资格的内容文章上述已经进行了论证,不再赘述。不过,共同犯罪的成立最重要的对行为人的犯罪故意进行认定。那么,对于自动驾驶汽车的行为是故意亦或者过失,需要进一步讨论。


    (二)自动驾驶汽车自身“故意行为”致损的责任认定


    研究自动驾驶汽车的刑事责任认定问题不能一概而论地将其简单分为弱人工智能、强人工智能,而是应该再进一步区分。根据文章前部分提到的国际自动机工程学会(SAE)发布的对自动驾驶汽车基于智能程度进行的分类标准,奠定了强人工智能下论证的基调。具体来讲就是L3智能水平之上的自动驾驶汽车(L3是有条件自动化,L4是高级别自动化,L5是完全自动化)。由于在L3、L4级别的自动驾驶汽车,在一定情况下需要由驾驶员接管、也可能需要汽车公司、智能系统提供者在背后进行监管,责任容易转移,在追究责任时必然需要对实质的“汽车控制权”进行掌握。鉴于此,在现行L3背景下认定AI故意行为时需要注意汽车制造商的故意行为。


    针对上述这一问题,本文认为如果自动驾驶汽车的智能水平完全超过人类,完全基于意志自主行为,反而不是研究的难点,因为那已经是超脱了“强人工智能”的科幻化的“超级人工智能”,届时的刑法理论可能对这种“高级文明体”没有任何意义[38]。所以,研究的难点并不在在L5级别之后更高级别的自动驾驶汽车。如果其发达程度达到文中(表1.1)所表示的那样“能够达到驾驶员‘无需控制汽车’的水平”,在认定责任时只需要专门针对汽车责任就已足够。虽然,现如今国际自动机工程学会(SAE)认定的智能标准比较笼统,无法详细明确未来智能汽车具体处于何种状态。但是,不难看出,真正的难点还是在于具有“一定程度的智能”和“一定意志下做出行为”的自动驾驶汽车,正如前文强调的强人工智能所具备的特点后的自动驾驶汽车。因为此时驾驶员也在控制车辆,其效果是“人车互动”。就会导致一个结果是由数个行为主体、多个行为共同造成的。所以,如果按照刑法追究共同责任时,自动驾驶汽车所有人、背后的公司、产品提供者的责任边界会处于模糊地带,在交通事故归责时,这种复杂性就会突显,严重影响刑事责任的判断。


    但相对而言,故意行为的判断是较为容易的,即自动驾驶汽车自身的计划或者路线本来就是系统中的设计。如果不是驾驶人或者制造商重大过失或者故意,就应当认为是自动驾驶汽车的故意行为。申言之,面对强人工智能时代人工智能产品,我们应当将其做拟人化的理解。这就例如,我们从小就接受家庭和学校的教育,却无法保证所有人长大后都不犯罪。进而也不能认为犯了罪就认为一定是家庭或者学校的问题,最根本的原因在于行为人自身的意志追求和行为本身。强人工智能技术下的自动驾驶汽车也是如此,他拥有意志和智慧也具备作出相应行为的能力,因此不应该避讳它作为相应主体在故意行为问题上的认定。


    (三)自动驾驶汽车自身“过失行为”致损的责任认定


    相比于故意行为,判断自动驾驶汽车的过失行为更为复杂。人工智能越智能就越具备学习能力,进而就越复杂,也就越能摆脱操作者的前瞻性规划,按照这个逻辑,人们就越难发现在制造、编程方面或者具体使用过程中的差错。而恰恰是这些差错就是成为过失可罚性的基础。结合刑法过失理论去探究自动驾驶汽车背后的责任承担问题,是为了更理性看待人工智能的刑法适用问题。


    刑法过失犯罪理论认为,核心问题在于“认识到发生损害法益结果的可能性”,而强人工智能自动驾驶汽车在过失的主观要件上很复杂。传统的汽车是由人来进行操作,汽车只是具有工具属性,出现问题也是简单的产品责任,除此之外都属于驾驶员的操作问题。而L4、L5级别的自动驾驶汽车是在人与汽车之间介入了一套“智能系统”,形成了“人+智能系统+汽车”的驾驶模式,由智能系统代替人进行路况监测并做出判断,智能系统对汽车起到了什么作用,会直接影响对驾驶员的归责问题,这样一来就出现了责任认定的困难[39]。旧过失论认为,只要驾驶员没有履行结果发生的“预见义务”,就已经成立过失犯罪了。但这有明显的理论缺陷,例如,汽车驾驶人甲因为公路前方的牛群受惊,刚好撞在欲意左拐躲避的汽车上,导致甲的汽车撞死了旁边的路人。如果按照旧的过失论,甲虽然采取了措施,但还是发生了损害,成立过失犯罪,所以这样的法律评价显然是不合理的。实际上,刑法中并不缺乏对“危险分配”的研究以及对过失责任的探讨,维护对“社会有用行为”的存在和发展造就了新过失论的发展。理论发展到后期,新过失论对交通、医疗领域的过失都进行了“限定”,即在结果预见的基础上,再附加“结果回避可能性”这一要件要素,就能很好的处理犯罪过失较为复杂的情形。[40]所以如果自动驾驶汽车的刑事责任问题用旧的过失理论来判断责任归属,汽车驾驶人和智能程序设计者在都尽到注意义务的情况下仍然发生了损害结果,还是会被认定为过失犯罪的话,那么说明这个行业的发展需要承担巨大的刑事风险,也意味着这是社会所不允许的行业,没有存在的必要,这是与社会发展相违背的。所以为了保证科技的发展,应当保证科技的发展不能受限于刑法对风险管理的不正当干预。如果过度干预,限制很多不确定的充满危险的事物,不能简单地认为“明知道有危险还做就是故意,对危险性错误估计就是过失”,这是令人担忧且错误的判断。事实上类似自动驾驶汽车这样的创新型行业本身就是对未知,对科技的探索,太过严格的过失责任就会导致没有人再去生产制造、研发创新智能汽车了。


    综上,就相关责任人而言,如果是技术层面的程序设计的重大失误或者硬件质量不过关,应当认定为生产者和制造商的过失行为,追究刑事责任。除此之外,应当允许一般风险的发生,不应将其作为过失行为认定。另外,就自动驾驶汽车“自身”的过失行为认定而言,应当进一步判断过于自信的过失和疏忽大意的过失。因此,细化这一问题还需明确两点:一是,强人工智能的计算能力和运算速度远超过人类,因此对其判断标准应当制定更严密和高级别的要求,应当和自然人作出区别。二是,应当以自然科学技术的客观数据和结论作为刑法过失行为价值判断的依据。


    结 语


    或囿于思维阻碍,或源于认知误区。强人工智能自动驾驶汽车刑事责任认定应以教义学为本,进行学科跨界流动,打开视野、做交叉研究。面对强人工智能的研究不能认为充满风险就否定它的存在,也不能因为承认强人工智能体的刑事主体地位将会给传统刑法理论带来解构的危险,就无需研究和面对,这毫无道理。人工智能领域涉及多类学科,人文社科的探索离不开自然科学的技术发展,技术发展同样离不开哲学、伦理、法律的指引。伦理优先法律,从自然科学技术到人文社科研究的“鸿沟”跨越后首要的落脚点并不应该是法学,而是应首先接受哲学、伦理学的检视。科学技术需要发展,同时也需要进行风险防控。就刑法而言,强人工智能法律人格化并无理论与事实上的阻滞,其完全具有刑事责任追究的可能性。在自动驾驶与车辆使用人“共同行为”的责任认定以及自动驾驶汽车自身“过失行为”“故意行为”造成损害后的责任认定上,具有实际可操作性,值得进一步研究。

    来源:法理杂志

    次阅读
    评论
    赞同
    收藏
    分享
    评论
    赞同
    收藏
    分享

    评论·0

    头像头像
    提交评论
      加载中…

      热门资讯