Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 法律论文 > 正文

人工智能法律主体地位及可罚性探讨论文

发布时间:2024-01-13 14:04:40 文章来源:SCI论文网 我要评论














SCI论文(www.lunwensci.com)

  摘要:越来越趋向“ 类人 ”的人工智能在带给人类方便的同时也存在一系列问题。对于人工 智能的法律地位的定位,弱人工智能的法律地位已经得到明确,而强人工智能是否具备法律主体 条件及是否具有可罚性依旧存在分歧。本文在阐述了人工智能可罚性原因的前提下,以人工智能 不符合自然人和法人的主体构成要件否定了人工智能的人格性,从其不存在独立意识和不可行的 财产罚角度否定人工智能的可罚性。最后得出人工智能的法律行为运用客体有关法律规定即可。

  今天,以人工智能为首的信息革命正在极大 地改变着世界,人工智能已不是简单服务于人类 社会的机器,其发展的最终形态是逐步向人类本 身靠近,很难排除在未来的某一时刻,人工智能 达到类人的程度。从法律的层面来看,是否赋予 人工智能主体地位,该以什么样的法律来规制人 工智能摆脱人类意志而行的侵权行为,是不可忽 视的问题。

  一、人工智能可罚性问题的形成

  人工智能之所以存在可罚性问题的原因是强 人工智能存在其脱离主体意识而为的侵权行为, 如自动驾驶引发的车祸,聊天软件学会了暴力、 侮辱、厌世的反动人工智能、智能机器人非因程 序指令伤人或杀人等。对于强人工智能的非程序 性侵害事件,损害结果到底该由谁承担?是否应 该对强人工智能进行惩罚?这些问题都是目前学 界所讨论的问题[1]。
\

  部分学者认为强人工智能的非程序性问题需 要由人工智能本身承担,也即人工智能具有可罚 性。但笔者认为人工智能不具有可罚性。

  二、人工智能可罚性研究综述

  一般认为,在弱人工智能时代,人工智能在 法律上仍应被界定为权利客体。但在强人工智能 时代,是否应当有条件或有限度地赋予人工智能 法律主体地位。人工智能成为民事法律主体的必 要条件与因素,国内学者的研究主要有以下几个 方面。

  关于人工智能能否产生独立意识问题,大部分学者认为,从科学技术角度来说,强人工智能 的发展虽处于迅猛时期,但让人工智能拥有类人 的主观情感以及对外部世界的感知和实践能力是 不可能实现的[2]。例如,在情感方面,虽然目前 人工智能系统已经能够用多种方式识别人类的情 感,但对于数据的处理与储存只是对外部世界的 刻板僵化反映。

  部分学者认为,“ 人 ”与“ 人格 ”从概念上就 已被划分,法律上的人格并不需要自然人格的支 撑,[3] 因此,赋予人工智能人格未尝不可,法律主 体亦由最先的自然人扩张至法人,那么人工智能 加入主体行列并非无法逾越的鸿沟。另一部分学 者认为,人工智能是否享有法律主体地位取决于 其发展的程度,法律只需在人工智能发展为具有 “ 类人 ”特征时,将其列入法律主体地位即可[4]。

  但一些反驳观点认为,无论人工智能发展到什么 程度,都无法成为法律主体,且人工智能不具有发 展成为“类人”的可能性,当此种人工智能存在威胁 时,人类会自动阻止此类人工智能的产生。技术虽 然能够借道德物化的功能来展示自己的某种“自主 性”,但是实际上技术不可能具有自主性,因为技术 所表征出来的意义和功能都是人所赋予,只是使技 术人工物在功能上看上去有“自主性”和“意向性” 而已[5]。

  三、人工智能法律“ 人格 ”证伪

  ( 一 )人工智能“ 人格 ”与自然人人格比较 研究


  在自然人主体资格标准的问题上,从古至今主要有理性说、感性说、德性说、神性说四种学 说,大部分国家的法律主体资格标准采用的是理 性说。理性说,指具有主体资格的存在者拥有辨 别对错、合理预见和控制行为的能力[6]。理性自 然人具备主体资格,也是法律层面上的主体和客 体的本质区别。人类的理性源于人的自主意识, 而自主意识造就了人类的“ 自由 ”,此种自由并非 生理上的自由,而是心理上的自由,即具有选择 性。虽然动物也具有自由,但此种自由不具有选 择性,动物无法意识到自己选择之目的,即不具 有“ 被支配之自由 ”。因此人类具有理性,而动物 不具备。康德认为:“ 有理性的生灵叫做人,因为 人依其本质即为目的本身,而不能仅仅作为手段 来使用 ”即理性使得人存在本身即为目的。[7]人 可以改变、创造世界,也可以制定、废除法律,人 的自主性使得其自然而然成为法律之主体。

  人工智能却不具有此理性特征,虽然目前一 部分强人工智能具有自主选择和自主判断能力, 但这些能力并不意味着人工智能与人类具有相同 的理性部分。人工智能的运作是靠既定的编码程 序进行运行,无法脱离人类之操作而自主行为, 更不具有独立的辨别对错、合理预见的能力,无 法通过类似人体的主观意识去做选择,因此,其 不具备理性特征。

  (二)人工智能“ 人格 ”与法人人格比较研究

  法人乃法律规定之产物,这主要得益于法人 同时具备实体性基础、实益性基础和法技术基 础:一是实体性基础,法人之所以具有实体性基 础在于其具有独立的意志和独立的财产。法人虽 非人,但其本质是一个自然人的集合体,其意志 是自然人团体意志的体现。同时,法人之所以能 脱离自然人独立地运行,成为交易的主体,在于 其拥有独立财产。法人的独立意志与独立财产是 法人实体性基础的构成要件。二是实益性基础, 指法人之社会价值。早在罗马时期,简单商品经 济下的法律制度已经体现了初级团体人格理论。 但直至自由竞争与垄断并存的资本主义时代的到 来,团体制度才显得尤为重要,法人制度才能够 应运而生。因此,实益性基础被认为是法人制度 之根本依据。三是法技术基础,即法人之法律基 础。罗马法的高低人格与有无人格之分是历史上 第一次将人与人格分离的法律,奠定了现如今的 法律人格理论。而非人的法人被赋予了人格,即 具有了法律上的主体地位,逐步发展成现今的团 体人格的法人制度。故法人之所以具有法律主体 地位,是因为其同时具备实体性基础、实益性基 础和法技术基础[7]。

  而人工智能,其作为人类社会发展的工具之 一,是否也能与法人一样具有人格呢? 从实体 性上来看,目前的人工智能没有自由意志,其行 为乃人的意志,此点与法人类似,随着科技的发 展,人工智能具有获得自由意志的可能性极大, 拥有独立的经济基础也不无可能。因此,人工智 能的实体性基础随着社会的发展将呈现现实化。 从法技术基础上看,由于罗马法的人与人格分离 理论的产生,法技术基础也同样可以适用于现代 强人工智能身上,因此也符合法技术基础要件。 从实益性基础上看,一是人工智能创造物归属问 题,二是人工智能侵权问题。人工智能是以既定 的编码为基础来运行的,通过黑箱处理后而创造 出产物,是一种机械式的表现形式,而当代知识 产权所保护的作品,是人的一种“ 个性 ”,是人 类所独有的创作表现形式。即便人工智能被赋予 主体地位,其对于作品也仅具有虚名无法享受实 益,且机械式的作品在法律层面受保护也是不具 有任何意义的。有学者认为,未来强人工智能若 赋予独立意志而摆脱人类预先设定的程序独立行 为,其侵权行为却由生产者承担是不公正的。但 若侵权行为由人工智能自己承担,将责任推脱于 此种虚拟人格上,失之偏颇,此做法容易促成生 产者形成逃避责任的心理。因此,人工智能被赋 予主体地位不具有实益性基础,不能拥有像法人 一样独立法律人格。

  四、人工智能可罚性辨析

  ( 一)人工智能欠缺独立意识


  科技的发展将人工智能拥有独立意识的可 能性提高,拥有独立意识的人工智能类同于自然 人所拥有的理性要素,因而具有可罚性。康德在 《 道德行而上学 》中对“ 意志 ”的界定有三个要 素,即理性、选择、目的。[8]人工智能是否拥有独 立意识 ,即从以上三个角度展开。

  1.人工智能无独立辨认能力

  法律对人的行为的规范程度通常以人对于自 身的辨认能力为基础,[1]具有完全行为能力的人 需要承担完全的法律责任,具有限制行为能力或 者无行为能力人承担相应的责任或无需承担责 任。因此,法律责任主体对其自身的侵权行为是 否具有辨认能力对于其承担法律责任而言是至关 重要的。

  人工智能的辨认能力与人类的辨认能力相比 较可以看出人工智能的辨认能力是存在缺陷的。 人类的辨认能力源于经验、心智、理性,是由生 理与心理共同构造而形成的,强人工智能的辨认 能力源于编码程序和算法,二者的形成机理完全不一样。人类的辨别能力来自生理能力和理性判 断,而人工智能的辨别能力是每一次精确计算出 来的结果,在结果的精确度与正确度上,人工智能 可能超越人类,但并不意味着其具有与人类相同 的辨认能力 。因此对其进行惩罚是毫无意义的。

  2.人工智能无独立思考能力

  思考能力是选择的前提,每一个选择行为的 背后都包含着思考。目前,强人工智能已具备初 步的思考能力,但此“ 思考能力 ”是对人工智能 程序运行过程的一种表述,与实质的“ 思考能力 ” 存在差异。本质上人工智能的思考能力依旧是对 既定程序的一种处理方式,其不可能脱离基础程 序设定而自主运行。而思考能力是独立意识的表 现形式之一,无自主性的思考能力的人工智能即 不具有独立意识。即便人工智能具有发展出自主 思考能力的可能性,人类也会因排除人工智能威 胁,而阻止人工智能发展出独立思考能力。所以 人工智能目前所表达的“ 思考行为 ”实际上是人 类借由人工智能作出的意志表现。[9]

  3.人工智能无独立感知能力

  法律以惩罚的形式使不法者产生了生理与心 理上的双重压力与痛苦。法律制度的设置正是 通过对不法者施加痛苦,迫使其对自身所为产生 正确认知,且对不法行为产生悔恨之意。以此标 准,人工智能倘若具有可罚性,则其必定需要具 有感知痛苦和产生负罪感的能力。强人工智能能 够基于大数据和内部算法的运行形成自我深度学 习的能力,但对其惩罚的形式有限且难以证明强 人工智能是否真正能感受痛苦。诸如删除数据、 重新设定等惩罚形式,由于强人工智能的学习转 换知识的能力是通过“ 黑箱技术 ”进行加工处 理,设计人员无法知道人工智能经过黑箱转换以 后会以何种形式输出数据。此种情况下,更无法 验证强人工智能是否拥有外部感知能力以及内在 情绪形成程序。而对于限制自由等身体罚,需要 强人工智能本身能够了解到自由的概念,若其没 有自由的观念,便不会由此感受到人身限制所带 来的痛苦。目前来看,人工智能无法感知精神和 身体痛苦。

  (二)人工智能无独立财产

  对于人工智能进行财产罚需要分为两个层次 进行讨论:第一,以目前法律规定层面探究。人工 智能处于客体地位,其本身属于主体的财产,因 此,人工智能不具有独立财产。对人工智能的财 产罚等同于对人工智能的所有者或生产者的财产 罚,不符合严格意义上的人工智能财产罚概念。 第二,即使人工智能拥有独立财产,却不具备财产罚的实质要件。财产罚是对加害者的经济进行 压迫的惩罚形式,而人工智能无法具有类似自然 人的理性情绪,无法形成对财产损失上的压迫心 理,这也意味着对人工智能实行财产罚,并无法 避免其可能存在的再次侵害行为。从被害者角度 讨论,由于人工智能无理性情绪,即便被害人得 到损害赔偿,也无法抚平其内心的创伤。被害人 得到赔偿损害的实质不仅是对自己损失的填补,更是通过对加害者的经济压迫而满足内心“ 报复 ” 的快感,但此种“ 报复 ”快感将被人工智能的自 身条件所阻断,并不能满足被害人心理上的慰藉。
\

  五 、结论

  在不久的将来,强人工智能将不断向类人方 向探索,可能产生出拥有自由意志之人工智能。 因此,其法律主体地位值得深度探讨。笔者认 为,即便是拥有独立意志的人工智能也无法成为 法律之主体,人工智能的产生只是为人类建造美 好世界的一种手段与工具。如同自然人存在本身 即为目的一样,人工智能存在本身即为手段,所 以不应当赋予其主体地位。从处罚方面来看,对 其处罚无异于对一台机器的处罚,其不具有生理 与心理上的痛苦感知能力以及辨认能力,无处罚 价值。综上所述,不论现今的强人工智能还是未 来的“ 类人 ”人工智能均不适宜赋予法律上的主 体地位,因此其也不具有可罚性,其所为的法律 行为以客体角度看待即可。

  参考文献

  [1] 张镭.人工智能体可罚性辩疑[J].南京社会科学, 2018(11):82-87 .
  [2] 房绍坤,林广会.人工智能民事主体适格性之辨思 [J].苏州大学学报(哲学社会科学版),2018.39 (5):64-72.191 .
  [3] 张绍欣.法律位格、法律主体与人工智能的法律地 位[J].现代法学,2019.41(4):53-64 .
  [4] 赵磊,赵宇.论人工智能的法律主体地位[J].人工 智能法学研究,2018(1):21-37.227-228 .
  [5] 宋春艳,李伦.人工智能体的自主性与责任承担 [J].自然辩证法通讯,2019.41(11):95-100 .
  [6] 陈劲松.传统法律主体资格标准理论及其当代变革 [J].学术交流,2019(7):84-96 .
  [7] 刘洪华.论人工智能的法律地位[J].政治与法律, 2019(1):11-21 .
  [8] 褚清清.人工智能法律主体地位问题研究——基于 权利、权力角度分析[J].未来与发展,2019.43(9): 15-18 .
  [9] 房绍坤,林广会.人工智能民事主体适格性之辨 思[J].苏州大学学报(哲学社会科学版),2018.39 (5):64-72.191 .
 
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/71068.html

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml