SCI论文(www.lunwensci.com):
摘要:人工智能相关民事纠纷的频发引发了理论上关于人工智能民事主体资格的广泛思考。 当前主流观点有三种,分别为肯定说、否定说与限制说。从必要性与可能性视角进行分析,赋予人 工智能一定的民事主体资格,是应然,亦是必然。但由于科技发展所限,当前对人工智能民事主体 资格赋予应极为审慎,避免对传统法律体系及伦理道德造成过大的冲击。因此本文认为,我国宜 根据限制说进行人工智能民事主体资格法律体系构建。
关键词:人工智能,民事主体,民事责任
ChatGPT 聊天机器人、汽车自动驾驶等一系 列新技术的产生标志着“AI 时代 ”的来临,但在 AI 技术飞速发展为传统技术领域带来颠覆性技术 革新的同时,人工智能也对现有的法律规范体系 造成了巨大的冲击。无人驾驶汽车交通事故的侵 权责任厘清、ChatGPT 人工智能的著作权保护困 境等一系列新型法律问题,将人工智能是否具有 民事主体资格这一命题推到了当代法学研究者的 面前。虽然我国尚未明确赋予人工智能民事主体 资格,但不可否认的是,人工智能已然逐渐呈现 出了由法律客体向法律主体的发展态势。因此, 本文将从当前我国的人工智能民事主体资格争 议入手,探讨赋予人工智能民事主体资格的可能 性、必要性及具体路径,旨在为我国人工智能法 律规制体系完善提供思路与建议。
一、人工智能的民事主体资格的理论之争
( 一)人工智能的定义
人工智能并非传统的法学概念,因此在对其 民事主体资格进行研究时,首先应厘清其定义与 内涵。不同学者对人工智能的定义并不相同,有 的学者认为人工智能是可以在表现知识的同时 获取知识并运用知识的科学,也有的学者认为, 人工智能是由计算机代替人工完成的智能工作的 科学。虽然不同学者的看法并不相同,但不可否 认的是人工智能目前主要是针对计算机等相关科 技进行研究,并通过在计算机程序上模拟人的学 习、思考等思维活动,实现计算机替代人工完成 智能工作的结果。因此,笔者认为在对人工智能 进行定义时,核心在于“ 智能性 ”, 即计算机通过 模拟思维实施了具有一定独立性的行为,该行为 与行为的结果并不是系统的开发创造者所直接导致的。
( 二)人工智能民事主体资格的不同学说
由于人工智能的定义与定位目前尚无定论, 因此其带来的民事争议也未形成统一的看法。目 前针对其民事主体资格的认定存在着三种不同的 主流学说 ,分别为肯定说、否定说与限制说。
1.肯定说
肯定说,顾名思义,认为人工智能应具有独 立的民事主体资格。该学说又细分为“ 人工智能 代理人说 ”“人工智能人说 ”与法律拟制说。“ 人 工智能代理人说 ”主张将人工智能视为其后控制 人的代理人,从而获得民事主体资格。例如欧盟 2017 年制定的《机器人民事责任法律规则》中就 采取了此学说立场,将人工智能视为“ 人类的代 理人 ”。“ 人工智能人说 ”主张将人工智能视为与 自然人、法人具有同等法律地位的新的民事主体 类型,并可以通过强制保险等事前程序保证“ 人 工智能人 ”享有独立担责的能力;法律拟制说认 为人工智能随着智能化的程度提升,故不应再将 其视为工具,可以通过法律拟制的方式,赋予其 民事主体资格。[1]
2 .否定说
否定说则与肯定说完全相反,认为人工智能 不具有民事主体资格。否定说根据其理由不同, 也可以再次细分为人工智能工具说与特殊物说。 人工智能工具说认为人工智能本质上仍是由人类 为了辅助生产、生活创设的工具,因此不具有主 体地位。持该观点的学者的一大重要理由就是人 工智能不具有独立的可供其支配的财产,因此无 法独立承担相应的法律责任。特殊物说认为目前 人工智能很大程度上仍受控于人,若过早赋予其独立的民事主体资格,与实际情况不匹配,甚至 可能会阻碍相关科技的进一步发展进步,因此应 将人工智能视为特殊的物,并运用物权相关理论 进行调整。
3 .限制说
限制说一定程度上为肯定说与否定说的折中 学说,认为一方面人工智能拥有着智能化的核心 构造因此应赋予一定的法律主体资格,另一方面 也不能否认人工智能背后的工具属性,因此,赋 予其法律人格应是有限的,不能将其视为完全的 民事主体。故在当前的时代背景下,本文认为,可 以借鉴公司法上的“ 刺破公司面纱 ”理论,赋予 人工智能一定的法律人格,但不割裂其与其背后 控制者的实际联系。
二 、人工智能民事主体资格的必要性及可能 性分析
人工智能的民事主体资格研究既要着眼于当 前的实际情况,也要具有一定的前瞻性,从而避 免因为规范的滞后阻碍科技的发展,因此要充分 探讨赋予其资格的必要性与可能性。
( 一 )必要性分析
1 .民事主体范围不断扩大的必然趋势
从民法的发展历程上来看,民事主体的范围 呈现出了不断扩张的态势,随着社会、经济的发 展,法人等非自然人主体也被纳入了民事主体的 范畴之中。因此,人工智能虽然目前并不具有与 自然人相同的情感及理智,但也不能因此否认赋 予其民事主体资格的必要性。当前,人工智能已 呈现出了一定的模拟人类的主观意识,并且在未 来随着相关技术的进一步完善,必然会具有更多 的独立性与智能性,从发展的眼光来看,对人工 智能的民事主体资格讨论要更为周详,要同时考 虑到民事主体范围的不断扩大趋势。[2]
2.人工智能民事纠纷解决的紧迫性
随着人工智能的飞速发展,其带来的日趋复 杂的民事纠纷也亟待解决。与传统电子信息技术 相比,人工智能具有一定的学习能力,在数据处 理上具有极为卓越的能力,因此在各个领域都被 广泛重视与积极运用。例如,人工智能实施局部 手术、人工智能驾驶汽车等都是人工智能在不同 领域的具体运用。但人工智能也不是绝对安全、 正确的,例如在前述的例子中,也存在着手术差 错、交通事故等风险,一旦类似的民事纠纷发生, 事故背后的归责与责任承担便成为各方当事人争 议的焦点。只有通过肯定人工智能的民事主体资 格,才能更好地应对当前实践中的问题,解决人 工智能民事纠纷的具体争议。
3 .维护人类的合法权益
人工智能技术在为人类生活带来极大便利的同时,也使人类合法权益的保障受到了极大挑战, 无论是个人信息泄露,还是个人权益被侵害,都使 人类与人工智能间的矛盾日益加深。若赋予人工 智能民事主体资格,可以简化人工智能侵权背后 的法律关系,便于当事人维护自身的合法权益, 避免由于责任不明晰导致互相推诿造成当事人维 权困难。在明确人工智能民事责任能力范围的同 时,也可以减轻人工智能开发者的责任,从而提 升人工智能技术开发的积极性,通过技术的完善 进一步维护人类的权利。
( 二 )可能性分析
1 .法理学证成
庞德曾提到过法律所追求的稳定是动态中的 静态平衡,并不是一成不变的。因此,要辩证看 待法律的稳定性与法律发展的关系。诚然,赋予 人工智能民事主体资格会对传统民法体系造成一 定的冲击,但从发展的眼光来看,肯定人工智能 的民事主体性可以更好地实现法律的规范效应, 有利于提升法律的公众接受程度与支持程度。秩 序价值是法的目的价值的重要构成,赋予人工智 能民事主体资格在维护人工智能领域法律秩序上 有着至关重要的作用。正如前文所述,只有赋予 人工智能民事主体资格才能有效化解当前人工智 能在各个领域产生的纠纷。除了秩序价值外,赋 予人工智能民事主体资格也有利于正义价值的实 现。罗尔斯曾认为人与人之间矛盾调整的理性意 志即正义。赋予人工智能民事主体资格可以理性 解决人与人工智能之间的矛盾,从而保障各方主 体具有平等的机会与自由。
2 .民法学证成
持否定说的学者认为人工智能的非生物性导致 了其必然不能同自然人一样享有民事主体资格,但 从民事主体资格的判断标准来看并无生物性的要 求,判断当事人是否具有主体资格通常考量其是 否具有意思能力与责任能力,因此在对人工智能 进行判断的过程中也要从这两方面入手。意思能 力是指当事人能够按照自己的意识支配自己的具 体行为,并对该行为的后果充分了解。在当前, 人工智能已随着科技的发展具备了“ 感知 ”、学 习及一定的“ 反思 ”能力,因此是否可以认为其 已具备了一定的意思能力,并且还可以将自己的 想法外化表达出来,故从意思能力的角度上看, 应赋予人工智能民事主体的资格。责任能力是指 当事人具有承担其行为不利后果的能力。责任财 产是判断人工智能能否承担民事责任的关键点之 一。与传统的电子系统相较,人工智能目前已有 一定的取得财产的能力,并且在未来还可以通过 强制保险等途径,进一步丰富人工智能的责任财 产范围。除此之外,人工智能还具有一定的责任意识,例如 AI 客服机器人在回答买家的问题时, 对双方合同中的权利义务关系是了解的。因此, 从责任能力的角度上看,也应赋予人工智能民事 主体资格。[3]
三 、人工智能民事主体资格的赋予路径 —— 限 制说
由于传统电子科技的载体不具有意识能力与 责任能力,因此应按照物来对待,但人工智能与 传统电子科技载体无疑存在着本质上的差异,如 果仍将其按照“ 物 ”来规范制约,无疑无法形成有 效的规制。因此,笔者认为应赋予人工智能一定 的民事主体资格。但受到科技等实际因素的制约, 本文认为,我国目前可以采取限制说的观点,对 人工智能赋予有限的民事主体资格,从而减少人 工智能对传统法律体系的冲击。
( 一)基本原则
在根据限制说赋予人工智能有限民事主体资 格的过程中,应设立如下几项基本原则,并围绕 其开展具体的制度设计。
1.人格否认原则
赋予人工智能有限的民事主体资格,一定程 度上是对人工智能发明者或控制者责任的豁免, 因此,在赋予其资格的同时,也应模仿公司法设 定相应的否认原则,从而增强法律对人工智能的 约束性,避免人工智能主体资格滥用。但该原则 的设置应极为审慎,否则可能会因原则设立不当 阻碍人工智能的技术发展。国外已有关于该原则 的类似尝试,例如美国规定经过技术检测的无 人驾驶汽车,在正常驾驶中发生事故,汽车的制 造、研发者不承担相关的责任。但如果未经过技 术检测,或在改装前存在质量等瑕疵,汽车的制 造、研发者则需要承担相关的侵权责任。
2 .强制保险原则
人工智能的发展是一柄科技双刃剑,如果不 对其加以限制,很可能会对正常的公共秩序与社 会伦理造成毁灭式的冲击,而这种严重的后果是 技术开发者难以独立承担的。为了从事前规避此 风险,可以设立强制保险原则。人工智能强制保 险在国外也已有对应的尝试,例如英国将自动驾 驶产品责任保险划入了强制保险的范围之中,在 自动驾驶工具发生交通事故前对责任的承担方式 与责任主体进行了确定。强制保险原则可以减轻 人工智能纠纷中个体面临的风险,搭建起了风险 共担体系,缓解了人工智能责任财产范围不清与 被侵权人足额受偿之间的冲突。
3.行政监管原则
诚然立法是对人工智能进行监管的最为有力 的方法,但基于法律自身的滞后性等问题,其往 往难以对新风险、新困境形成及时有效的应对,因此在完善人工智能相关民事立法的同时,也要 坚持行政监管原则,充分发挥出行政机关监管的 灵活性与规制的及时性。但对人工智能进行行政 监管的前提是赋予其一定的民事主体资格,否则 监管将无从谈起。
( 二)具体内容
1 .义务的有限性
人工智能的义务通常是由人工智能相对方设 定的,但根据人工智能设定的初衷,无论其约定 的义务是什么,本质上都是为了服务人类,因此 应对人工智能的义务加以限制,不能对人类的利 益造成损害。人工智能义务的有限性较为简单, 因此不再赘述。
2.权利的有限性
与义务相较,人工智能作为民事主体,其权 利范围的讨论更为激烈,人工智能的有限民事主 体资格很大程度上也表现为权利的有限性。首 先,人工智能不应享有政治性权利。政治性权利 是公民参与社会治理、参加政治活动的重要权利 保障,赋予人工智能该类权利,会给公共政治活 动带来不必要的混乱,并且有违于传统的伦理道 德,甚至可能会阻碍社会的政策发展;其次,人 工智能不应享有“ 自杀权 ”, 即人工智能不得自 我毁损。人工智能的创设过程中投入了大量的成 本,如果赋予人工智能自我毁损的权利,会增加 人类遭受财产等方面损失的风险;最后,人工智 能也不应被赋予生命权等身体权。人工智能本质 上是为人类服务的,因此人类的利益应放在人工 智能运行的首位,如果赋予人工智能生命权,允 许其为了自身安全威胁损害人类利益,无疑是不 合理的。综上所述,在现阶段人工智能享有的民 事权利边界应限制在著作权、数据权等财产权利 范围之内。
3 .责任的有限性
与有限的权利相对应的是有限的责任。在人 工智能造成他人权益受损时,应根据风险分担原 则,完善人工智能开发者、使用者及人工智能自 身的相关责任划分体系。此外,还应根据强制保 险原则,通过完善配套的保险制度,转移分担部 分人工智能责任承担风险,更好地化解人工智能 民事纠纷。
参考文献
[1] 王瑞玲,周月.赋予人工智能民事主体资格肯定 论[J].湖南工业大学学报(社会科学版),2023,28 (5):61-68,77 .
[2] 刘洋.人工智能法律主体地位的法理诠释[J].师 大·西部法治论坛,2022,7(00):217-226 .
[3] 蔡泽男.人工智能法律主体地位辨析[J].合作经济 与科技,2023(2):186-187
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!
文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/76575.html