人工智能的法律人格与权利--刘湘辉博士

2022-11-17

1前言

人工智能前景广泛、应用丰富[1],现阶段23%的律师业务已可由人工智能完成[2]。人工智能目前已实现自动驾驶航空器、完成高考试卷,甚至有学者提出将人工智能应用于法律裁判[3]。人工智能已进入社会生活,而与之相关的法律规制却未能跟上人工智能技术前进的节奏。在法律制度无法有效应对实际情况时,法律理论理应出场[4],首先需要明确的问题就是人工智能是否具有法律人格,即人工智能是否等同于法律意义上的人,具有什么程度的权利与义务。

2人工智能的法律人格规制缺位

法律人格,是指法律认可的一种享受权利、承担义务的资格。包括自然人主体、法律拟制主体两种形式。对于任何自然人,法律均承认其法律人格,民法上分为无民事行为能力人、限制行为能力人与完全行为能力人,但法律人格伴随自然人终生。对于法律拟制主体的人格,则需要经过法律规定的程序方可取得,例如有限责任公司的设立等[5]。简单地说,法律人格是某一主体能否成为法律意义上“人”的资格,是其享有权利、履行义务的基础。人格是可以扩展于自然之外的实体的[6],但现行体系下,人工智能是否具有法律人格并不明晰,造成现实的适用困境。

2.1缺乏法律价值指引

每一项重大科技应用前后,均有对其的争论。20世纪90年代克隆技术的成功就曾产生过巨大争议,其中最大的焦点在于是否允许生理性繁殖克隆人。1997年11月,联合国教科文组织制定《人类基因组与人权世界宜言》第11条明确规定,应当禁止生殖性克隆人类。2000年4月,日本内阁会议通过关于《限制对人的克隆技术的法律草案》,禁止克隆人类。国际社会明确克隆人不具有法律人格,立法禁止克隆人类,但对人工智能的态度含混不清。对于克隆人的主要担心在于其诞生将扰乱人类社会基础的血亲伦理关系,由于人工智能在繁殖方式、发展方式上均存在根本不同,因此学界主要担忧人工智能发展程度过高后会反制人类。按照趋势,人工智能的发展必将会在未来出现突破,但现行法律规制对于人工智能法律人格的态度模糊[7], 特别是在人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领

2.2法律地位不明

由于人工智能的法律人格概念不明,导致其法律地位并不清晰。作为具有独立思考能力的客体,人工智能可以“深度自主学习”、使用“神经网络”,人工智能具有此种类人特性,是否应当赋予人工智能以人权?从法哲学的角度分析,是否应当认同“人工智能等同于人”的根本问题?如果不能,人工智能技术应当作为何种法律主体、具有何种法律地位?人权,是作为个体的人对于自己基本利益的要求与主张,这种要求或主张是通过某种方式得以保障的,它独立于当事人的国家归属、社会地位、行为能力与努力程度,为所有的人平等享有人权是人之为人的最基本的权利,是一切利益和权利的前提和基础[8]。如果人工智能适用人权及人权伦理体系规制,则其法律地位是否等同于人类?若其具有人类完全相同的法律地位,则是否会出现人工智能机器人享有婚姻权同人类通婚,从而导致现行法律体系逻辑乃至人类赖以生存的伦理社会的崩塌?

2.3缺少具体规则标准

人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到任何控制,人工智能的运用与发展需要法律人格的明确。从现实情况分析,现有规制并无法有效规制快速发展的人工智能技术。根据笔者2017年7月的实地调研,目前深圳人工智能产品由深圳市场监管委进行审批,但申报的类目为玩具类,所有的申报标准与文件均按照相应玩具标准进行审批,在海关进出口过程中也并无人工智能这一单项列出,目前暂时仍作为玩具进出口,显然无法满足人工智能产品的生产与发展。笔者认为,有关人工智能发展的具体法律规制,至少应当包括以下几个方面的内容:第一是明确人工智能具有法律人格,确定人工智能享有的权利与义务边界;第二是确定人工智能侵权的相关原则,若发生侵权事故时该怎样认定相应的法律责任,适用怎样的归责原则;第三是重视开发应用人工智能技术时对于数据与隐私的保护;第四是确定人工智能的有效监管规则。通过合适的具体规则标准,优化发挥法律对于人工智能的引导与监管作用。

3人工智能有限法律人格的规制设置

3.1明确“刺破人工智能面纱”的归责原则

人工智能的本质依然为工具,即使人工智能具有自我意志也无法改变其服务人类社会发展的属性。因此人工智能仅享有有限的法律人格,其自身承担有限的法律责任,其造成的侵权损害赔偿或刑事责任依据实际情况由其设计者、开发者、制造者或使用者承担。人工智能涉及的侵权规制主要集中在责任负担的主体、数据使用安全、破坏人工智能的责任分配等方面。在规制人工智能与促进人工智能发展的两个维度间必须寻找恰当的平衡,促进人工智能发展的首要问题是需要有主体为人工智能的行为承担责任。人工智能独立意志的情况下也无法仅完全苛责新兴技术的创造者。即使是最细心的设计者、编程者以及制造者都没有办法控制或者预测人工智能系统在脱离之后将会经历些什么。假如嫌疑人醉酒驾驶无人驾驶汽车致人死亡,此种情况下将法律责任归于开发者显然是违背公理的。不解决此问题,人工智能的发展就缺少基础性的理论支撑。人工智能没有灵魂,其法律人格毕竟有限,即使将来拥有自我意志也无法存在繁殖性的肉体或者真实感情,在刑法对待人工智能的法律地位上,与公司的法律地位无异。有关公司的刑罚理论中最重要的是“实际控制人说”,按照“刺破人工智能面纱”的归责原则确定责任主体。在无人驾驶领域,美国道路交通安全管理局于2013年发布《自动驾驶汽车的基本政策》,对自动驾驶汽车测试事故的责任承担进行了规定,车辆在被第三方改造为自动驾驶车辆后,测试过程中导致财产损失、人员伤亡的,车辆的原始制造商不对自动驾驶车辆的缺陷负责,除非有证据证明车辆在被改造为自动驾驶车辆前已存在缺陷。德国《道路交通法》规定机动车持有人的道路交通事故严格责任独立于车辆的自动系统,驾驶员在车辆行驶过程中必须履行全程保持警惕、手不离开方向盘等强制义务,否则需要承担人工智能造成的损害。谷歌公司曾经使用奔驰汽车进行测试,则安全责任由谷歌公司承担,而非奔驰公司。因此,在人工智能具有的法律人格有限的前提下,其造成的损害由人工智能的实际控制人或责任人承担责任是合理的。

3.2强制投保责任保险

凯西·欧尼尔在其著作《数学武器:大数据如何加剧不平等、威胁民主》中,将造成歧视、个体损害等不利后果的人工智能称为“杀伤性数学武器”,人工智能如果利用不当,其给个体和社会带来的危害将极大[9]。在数据网络平民化时代,单一的国家或部门均无法独自应对人工智能带来的责任风险。传统的监管方式如产品许可制度、产品侵权责任,无法全面地适用于人工智能规制。事前监管措施亦存在弊端,人工智能的开发与研究一般是分散的,在网络时代,任何人均可获得制造人工智能的机会,外部监管人员极难在人工智能形成危险结果之前发现存在的风险。必须采取新的经济措施以规制人工智能带来的责任风险——强制投保责任保险。2016年,英国议会提出一份有关无人驾驶汽车法律责任问题的提案,提出将汽车强制险适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障[10]。而投保人可根据英国现行《消费者保护法》的产品责任和普通法中过失原则的适用,确定应对事故发生负有责任的主体。在人工智能投入商用之前,必须为其强制投保责任险,以较小的经济付出,获得保险共担风险的机会。此举将大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展。

3.3确立“以人为本”的监管体系

人工智能行业的领军者埃隆·马斯克认为,政府监管介入人工智能领域是明智的选择。人工智能应在国际或者国家层面上有相应的监管措施,防止陷入“人工智能悲剧”。法规必须同科技进步相协调,若政府监管缺位,将明显加深公众对于人工智能的危机感并使得人工智能的发展陷入无序状态。在确定人工智能适用的一般原则时,主要考虑三大因素:人权、人类利益优先、削弱人工智能的风险。由于人工智能仅具有有限的法律人格,因此人工智能的本质是为人类生产生活服务的工具(即“以人为本”),这是人工智能发展的首要原则,也是建立人工智能监管整体框架的首要指导原则。由于人工智能的项目集成程度与开发难度较高,往往是众多科研团队协作的结果,很难在事前由政府相关部门预见或了解,由此在事前设立审批制度难度颇大,即使人工智能开发团队将开发立项报告交予相关部门审批,相关部门的审批人员也未必能够了解人工智能的梗概并作出及时答复。从监管者角度分析,人工智能本身并不是难以处理的主体,难处理的是人工智能研究与开发[11]。由此,依据“以人为本”原则创设事前备案、事中授权、事后惩处的整体机制较为适宜。事前监管采取原则性申报,即设计建造人工智能系统前,所有开发设计者必须共同向行业主管部门备案,承诺在维护人类利益的前提下进行合法开发,并不得用于违法犯罪活动,如果不进行申报,则人工智能系统将来不得应用于包括商用在内的公开领域。由于身份是人格权的基础,人工智能的登记备案就相当于给予人工智能法律上的身份,从而拥有法律人格。事中授权主要由政府授权的专业机构作出人工智能系统的风险评估和防控强调前瞻预防和约束引导,此授权无需彻底评估人工智能的算法、编程等技术性数据,只要企业或团队将人工智能用于公用领域前所需的事前备案书、强制保险投保确认书、产品质量认证书、数据清单及其他要求的明示性材料备齐,主管机关即可作出准予公用的授权。如果人工智能在实践应用中出现了危害人类的行为或其他侵权行为,则由政府机关问责惩处,特别是对于违反“以人为本”根本原则的企业或个人,加大惩处力度以促进人工智能行业和企业自律。而主管机关亦可通过已发生的事件强化人工智能安全监管和评估体系,反向构建人工智能安全监测预警机制。

4我国如何应对机器人权利引发的社会风险

4.1机器人权利的边界及其法律保留

机器人权利所引发的法律不周延性,对我国现行法律体系的正常运行带来了巨大的挑战。它不仅影响了我国公民之间、公民与国家之间的法律关系,还给国家治理、政治生态以及社会稳定等宏观法治秩序带来了安全风险。因此,我国在机器人权利的拟制上,应当明确必要的权利边界。从立法技术角度来看,无论是采取“例示规定”,还是“列举式”的立法方法[12],都会引发机器人权利的不可穷尽性难题。与之相反的是“法律保留”。尽管法律保留难以明确机器人权利的具体内容,却能够在限定机器人权利边界上带来更好的效果。因此,根据机器人社会化应用的需求,“法律保留”不失为一种限制机器人权利的绝佳方案。一是政治权利的法律保留。对于国家而言,政治权利是“公民依法享有参与国家政治生活,管理国家以及在政治上表达个人见解和意见的权利”。它关乎国家政治生活、政体以及治理形式等重大政治问题。因此,无论机器人如何影响我国的社会经济文化发展,法律都不能赋予机器人政治权利。二是自我复制权利的法律保留。机器人的自我复制,是指机器人非依据研发者和生产者的指令,自主生产人工智能产品的活动。目前,由于3D打印技术日渐成熟,机器人的自我复制已经不再是一个技术难题[13]。但是,技术上的可行并不意味着法律上的许可。机器人的自我复制会扰乱我国机器人市场秩序,降低机器人资源的社会配置效率,甚至危及我国的社会稳定与国家安全。显然,机器人的角色分化不利于其功能的有效实现,更有悖于人类社会的发展规律。因此,机器人的自我复制权应当纳入法律保留事项范围内。三是紧急避险权的法律保留。紧急避险是一方为了防止人身、财产或其他权利免受正在发生的危险,而牺牲另一较小合法权益的行为,其内在逻辑是“两害相权取其轻”[14]。对于机器人而言,当我国公民、社会组织或者国家财产遭受损害危险时,机器人或许能够通过“两害相权”来规避自身损害——专门的救援型机器人除外——但在我国公民人身正在遭遇危险的情况下,机器人的价值无法同人的生命健康价值相权衡。为此,对于涉及我国公民人身安全的危险活动,机器人不因功能差异而享有紧急避险权。与此同时,我国应当建立机器人强制保险机制,以弥补机器人利他主义救助行为所遭受的损失。

4.2加强法律规范与机器人伦理规范的衔接

机器人权利是机器人伦理不断发展的产物。一般认为,机器人伦理是约束机器人研发者或研发机构科研活动的伦理规范,其实质是保障人类利益,促进人类社会的健康、有序发展。在机器人发展之初,伦理规范的确能有效维持研发活动的合道德性——这也证明了为什么工业机器人、无人驾驶汽车、智能扫地机器人等类型的机器人较早得到研发——但社会需求的不断提高,传统上关于机器人伦理问题的担忧逐渐转化为现实问题。例如,老年人对陪护型机器人的情感依赖、儿童对宠物型机器人的过度关怀、虐待机器人、机器人杀人,等等。这不仅意味着机器人伦理开始丧失规范作用,也要求立法者尽快制定出强制性法律规范。在这种情况下,我国必须借助法律规范来建立稳定、有序的机器人权利、义务和责任。当然,这并非是说机器人伦理规范已然可以退出历史舞台。恰恰相反,机器人法律规范的制定只是弥补机器人伦理规范的部分缺陷,两者的衔接与沟通才是我国规制机器人权利风险的最佳模式。机器人权利、义务、责任的法制化,应当遵循人工智能发展的阶段性特征,逐步推进机器人法律的规制范围。首先,我国应当率先创制人工智能的基础性法律。一直以来,关于机器人伦理问题的争论都被归结为机器人研发方向上的差异,却忽略了我国人工智能基础性法律的缺失问题。在机器人伦理问题日益严峻、社会化应用程度不断提升的当下,我国应当针对机器人研发与应用的现实需要,率先出台人工智能的基础性法律,以规范机器人研发、应用中的伦理问题。其次,针对部分应用基础较好的机器人,我国应当加快制定专门的安全管理规定。目前,我国在智能驾驶、服务型机器人的社会化应用上,伦理问题较少且社会化较高,唯独安全管理问题及法律责任缺乏明确的法律规制。例如,智能驾驶汽车的交通安全隐患,以及其引发交通事故的法律责任等[15]。因此,对于设计成熟、应用化程度高的部分机器人,我国可以制定专门的安全管理规定,以应对日益增加的智能机器人法律纠纷。再次,制定机器人科研、审查的行业规范。作为一种具有行为约束力的内部准则,机器人行业规范能够有效提升科研机构、科研人员、审查人员的道德自律性,树立“维护国家与公民权益”的基本宗旨。同时,行业规范还能够为机器人的研发、应用确立一种框架性制度,使机器人研发符合宪法法律的基本规定。最后,制定并达成“机器人研发与应用”的国际条约,推动机器人应用的全球化治理。“在全球化背景下,国家间的理解和合作已是大势所趋,全球治理理论已经成为全球化和国际合作问题研究的重要分析工具。”[16]尤其是在机器人的研发与应用上,通过国际条约实现机器人标准一体化,推动机器人应用的全球治理,是未来机器人产业化的必然要求。尽管上述措施无法解决所有的机器人伦理问题,但法律规范同机器人伦理规范的衔接,将极大提升机器人研发、审查、应用的规范性。

4.3建立机器人监管机制

在人工智能飞速发展的当下,我国不但要谨慎地赋予机器人权利,还要积极地强化机器人的监管机制。就现行法律监管体系来看,我国主要采用领域性、行业化的分类监督模式(例如,食品药品监管、金融监管、市场监管等),监管力量分散且专业性问题突出。这显然无法适用于机器人权利的法律监管:首先,机器人监管对专业性知识的要求很高,而目前我国设立的监督机构尚不具备机器人监管条件。其次,尽管机器人能够按照“功能”划分到各个领域,却无法解决人工智能专家的配置问题,也变相导致监管力量的分散。再次,我国目前不宜采取较大的监管体制变革。这样既缺乏效率,又造成监管体制的动荡。为此,我国在保障机器人权利的基础上,建议采取渐进式分级监管模式:(1)设立独立的机器人监管机构。面对机器人所带来的机遇与挑战,专门性机器人监督机构的优势在于,它能够统一行使机器人伦理、研发、应用以及安全等方面的监管权力,实现人工智能领域内部的全面监控。这不仅有利于提升监管权力的运行效率,还能保证“政出一门”,避免职能推诿现象的发生。(2)建立机器人强制登记制度。前文已述,编号及数据差异构成机器人身份识别的主要依据。即便机器人的数据遭受破坏,其编号也能提供机器人的身份信息,从而为确定各方权利义务关系、明晰法律责任提供证据。所以,我国应当建立机器人强制登记制度,确保机器人在推向社会之前获得唯一的编号。这既是机器人权责追溯的必要保证,也是确立个体机器人法律主体地位的基础。(3)确立机器人分级监管模式。根据机器人的功能差异,它可以分为生产型机器人、服务型机器人和暴力型机器人。前两者的社会风险较小,但伦理问题突出;后者的社会风险较大,伦理难题极易转化为法律问题。为此,我国在实施机器人监管上,应当根据机器人社会风险和伦理问题的不同,采用分级监管、重点治理的模式,优化机器人的监管效率,减少机器人社会化应用中的潜在风险。

5结束语

在机器人社会化应用不可避免的情况下,我国乃至世界各国应当肯定机器人的法律主体地位,赋予机器人必要的权利,并积极迎合人工智能时代的社会发展趋势。或许在短时期内,机器人权利、机器人立法难以展现出社会效果,但在人类社会迈向人工智能时代的转折期,上述努力至少有助于保证我国人工智能的顺利发展,提升国家的科技竞争力。