Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 法律论文 > 正文

用户权益保护视角下人工智能侵权问题研究——商用主体担责伦理探讨论文

发布时间:2024-02-26 14:05:51 文章来源:SCI论文网 我要评论














SCI论文(www.lunwensci.com)

  摘要:本文在介绍人工智能发展现状的基础上,从人工智能算法逻辑层面论证了问题发生的 必然性、伦理挑战与特定知识域风险。提出应当立法明确商用主体可以直接作为侵权行为的被诉 对象,并采取举证责任倒置。接着从方便诉讼的进行、不破坏现行法律体系的选择、经济效率最大 化的选择三个角度对观点予以论证。最后, 还对人工智能侵权问题进行了立法逻辑上的思考。

  基于深度学习算法所搭建的人工智能之应用 已成为现实,有别于以往,这一次的发展速度非 常快,大型语言模型使开放式理解与生成连贯文 本成为可能,理论算法开始走向实际应用,推动 了聊天机器人系统的迭代升级,2023 年 ChatGPT (Chat Generative Pre-trained Transformer ,是美国 OpenAI 公司研发的聊天机器人程序 )的诞生,标 志着人工智能算法科技进入了新的阶段。[1]算法 发展的惊人速度,使得人们亟需重新审视人工智 能的伦理及其所带来的法律风险。

  一、人工智能高速发展

  人工智能问世 60 多年,其应用范围早已拓 展至多个领域,影响着人类的思维方式和行为模 式。回顾人工智能发展的历史,人工智能经历了 几次大起大落。在其发展的过程中遇到过巨大瓶 颈,又在新的理论和新的技术推动下,奋而前行。

  目前,我们正在进入人工智能的“inside ”时 代,即人工智能并非简单的赋能,而是在创造着 新的经济结构和社会形态。[2]人工智能技术,除 了在搜索引擎、推荐系统、计算广告、人脸识别、 图像识别、语音识别、机器翻译、游戏博弈等领 域已大规模熟练运用外,还在蛋白质结构预测、 新药发现、国防军工等领域有了突破性的进展。
\

  人工智能的发展速度已然超越预期,进入了 一个新的历史发展阶段 —— 第三次认知革命,探 索人类通过自我认知而形成的主观世界机制,把 这样的智能赋予机器并改造客观世界,推动人类 智能的外化延伸。

  二、人工智能的应用必然带来风险与问题

  根据研究,人工智能在新生命科学、类脑神 经系统、智能医疗等多个前沿领域取得突破性进 展,可预见其对人类社会劳动力市场分工、经济 产业结构等产生重大的影响和连锁反应。[3] 同时, 随着人类能力被机械化和程式化的机器取代以及 技术异化等问题的产生,人工智能的运用必然会 带来一系列技术风险与伦理问题。本文将人工智 能的风险分为:技术风险、伦理风险及法律风险 三类。

  ( 一)技术本身的风险

  复杂网络是涵盖多领域的交叉性学科,随着 人工智能的发展,其运用愈发广泛,但复杂网络 仍然面临多变的环境、人为破坏以及自然灾害等 诱发故障的因素。如果复杂网络系统出现故障, 则可能会造成严重损害。

  人类很难甚至不可能跟踪人工智能系统的工 作原理并“ 预测 ”它们将如何发生故障。对于许 多较老类型的自动化系统,工程师使用详尽的测 试或数学分析来“ 验证 ”系统是否在合理的范围 内运行。但现代人工智能系统比老一代自动化系 统复杂得多,它们不能像旧系统那样进行详尽的 测试 ,因为要测试的可能性路径实在太多。

  换言之,人类可以通过设计一套高效、性能 优越的优化方案及一套稳定的系统来保证其面临 异常情况时的正常运作,但本身并无法规避风险 所发生的可能。

  ( 二)人工智能的伦理风险

  人工智能在伦理方面逐渐浮现出了诸多负面 问题。首先,人工智能算法存在性别、种族等歧 视;其次,人工智能存在着弱化人类主体性的特 征,开始具备人类语言能力、共情意识和自觉意 识,同时冲击人类就业市场,由此或将引发群体 性的恐慌和社会动荡;最后,算法滥用会挑战学 术规范,加剧学术不端现象,造成教育困境,引发 深层次的教育不公。

  从不同视角看,人工智能带来的问题不尽相 同。这时要先从道德与伦理角度去思考其涉及的问 题,例如人工智能的设计不能摆脱“ 人是目的”。[4] 人工智能发展如此迅速,极有可能产生一批游离 于法律之外的“不道德的人”和“不道德的机器”。谨 防出现基于“技术野蛮”的“寡头恐怖主义”,应当尽 快出台人工智能相关预防性的、有效的、缜密的伦 理应对机制和路径。[4]

  (三)特定知识领域的风险

  就以本文所站的法律角度为例,人工智能的 发展还会对法律职业、法律思维造成巨大的挑 战。从法律职业方面来说,人工智能的出现可以 提高法律行业的办公效率,使律师可以更高效地 处理专业的法律问题。但同时,律师作为一门需 要具备正确价值观的职业,是人工智能无法取代 的。人工智能只能作为辅助,法律工作者需要有 意识地筛选和审核。

  人类特有的无法用机器生成的法律思维和语 言有:伦理、文义和技术。人工智能可以替代通过 语言的法律方法,但是仍然无法替代负责任的判 断或具体情境下的判断。基于此,人类仍然可以 加强对于人工智能的监管,控制其内在风险,完 善相关法律,掌握法律解释权,防范人工智能时 代出现的法律风险。

  三 、人工智能商用主体作为被告主体的合理 性与必然性

  人工智能侵权现象的发生不可避免,但人工 智能侵权行为的侵权程度不同,是否达到“ 犯罪 ” 的程度,显然公权力对此进行的救济之必要性与 急迫性截然不同。

  本文立意要点为,需要明确当基于人工智能 算法搭建的软件对个体造成严重侵权时,应当允 许将商用主体直接作为被告 ,且举证责任倒置。

  ( 一)方便诉讼的进行

  根据《 中华人民共和国民事诉讼法》第一百二十二条:“起诉必须符合下列条件: ……(二) 有明确的被告;(三)有具体的诉讼请求和事实、理由;(四)属于人民法院受理民事诉讼的范围和 受诉人民法院管辖。”起诉必须有明确的被告,以 及确定准确的利害关系。又依据《最高人民法院关 于人民法院登记立案若干问题的规定》第四条:“民事起诉状应当记明以下事项: ……(二)被告 的姓名、性别、工作单位、住所等信息,法人或者 其他组织的名称、住所等信息;(三)诉讼请求和 所根据的事实与理由;(四)证据和证据来源…… ”

  实践中,无论是举证证明程序与损害之间存 在因果关系,还是寻找适格被告主体信息,对于 普通个体,皆会存在困难,使得法律关系长期处 于不稳定的状态。故而根据法益衡量原理,有必 要通过立法手段对这种“ 缺失 ”予以弥补。[5]例 如可以模仿诸如《 中华人民共和国消费者权益保 护法 》中关于经营者与生产者的相关追责理论, 允许受侵害的主体直接向商用主体(媒介机构) 起诉,且规定举证责任倒置。由商用主体对造成 的损害进行赔付,同时赋予商用主体对算法提供 者追责的权利,这将最大程度上维护社会的整体 稳定性。

  ( 二 )不破坏现行法律体系的选择

  从伦理角度思考同样支持应由商用主体进行 赔付。计算机代码本身只是将逻辑通过算法进行 转化后所编写成的文字,其本身并不具有善恶之 分,按照法秩序统一性,即不具有可罚性。[6]正如 自动手枪可以杀人,但杀人的却不是枪,而是扣 动扳机者。使用计算机代码进行恶意操作,其可 罚性来源并不是“ 编程 ”这一行为本身,而是使 用代码时的动机,以及程序编写好后运行时的目 的与造成的结果。对于人工智能算法所造成的违 法行为,对其代码编写的本身进行审查显然过于 困难且不切实际,将负责主体从编写者转移为商 业使用者,显然让法律对行为进行评价的过程更 为方便可行。

  基于大陆法系的特点,法需要保持稳定性。 故而选择将保护法益的天平向普通用户倾斜,允 许受侵害个体直接向算法的商用主体主张权利。 又或者说,如希望在传统大陆法学框架下对人工 智能所引发的法律问题予以规制,应当通过赋予 受侵害主体直接向人工智能算法的商用主体告诉 的权利。

  (三 )经济效率最大化的选择

  从效率角度思考,选择人工智能商用主体作 为被告的优点主要有两个方面:一方面,根据《 中华人民共和国民法典》关 于商事主体登记的相关规定,受侵害者寻求救济 时,寻找商用主体的信息显然更为简单。这使得 面对人工智能侵权行为的维权成本不至于过高, 有利于社会稳定。另一方面,随着对人工智能的使 用越来越频繁、范围越来越广,显然相同算法所 形成的人工智能程序侵权案件会越来越多。且由 于电脑编程本身的可复制性,人工智能相关的违 法犯罪行为会日渐猖獗。由法院法官逐一确认并 追责,即便理论上可行,实际中也会因工作量过 大而不切实际。

  从效率角度来讲,将犯罪主体确定在不当使 用人工智能算法的商用主体,显然更符合效率最 大化的原则。同时,站在司法者的角度,也方便法 院的审理与追责,以及审判后的执行,有助于节 省司法资源。

  四 、立法视野下的思考

  人工智能技术的改进和来自消费者的自下而 上的市场压力有助于使人工智能更安全、更不容 易发生事故,但仅靠这种调控力度并不足够。健 全立法应发挥至关重要的作用。有前瞻性的立法 有助于减少有侵权可能的人工智能算法研究,本 文结合相关的研究 ,提出以下几点立法建议:

  ( 一)建立风险事故信息共享机制

  为了使人工智能更安全,需要知道它何时以 及如何失败。在许多近似技术领域,共享事件报 告有助于建立共同的知识基础,帮助行业和政府 跟踪风险并了解其原因。政策制定者应该探索不 同的方法来鼓励经营者或生产商积极披露人工智 能事故的细节。如政府可以制定事件报告的共同 标准,甚至强制要求经营者或生产商披露某些类 型的事故。

  ( 二)政府背书的信息安全机制

  对人工智能安全进行审查与测试至关重要,旨在解决上述提到的问题,以及将人工智能工程 塑造为一类更严格的学科领域。如美国 2021 年 制定的《 国防授权法案》(NDAA),要求美国国 家科学基金会和能源部投资于“ 值得信赖的 AI ” 研究。

  我国亦应当注重人工智能标准,制定出人工智能系统事故风险的标准。并委托更专业的监管 机构,创建一个国家背书的人工智能测试体系。 进而构建一个包含标准化数据集、代码和测试环 境的数字平台,公共和私人人工智能系统可以在 其上对安全性和可靠性进行测试。
\

  (三 )强制责任保险制度与侵权救济基金制度 的构建

  作为一种科学趋势及事物的发展规律,我国 的人工智能研究与应用不可能等到立法健全时再 开始。正如前述,法的滞后性也决定了问题的出 现一定早于立法。正基于这种特性,有学者提出 了我国应当构建强制责任保险制度与侵权救济基 金制度。[7]该制度广泛应用于欧洲国家,即通过 强制要求人工智能应用主体缴交责任保险,或者 设立侵权救济基金,来为未来可能发生的侵权行 为提前提供赔偿保证。同时,资金的要求无形之 中也为人工智能公司的设立提供了门槛,有利于 将风险限缩在一定的程度以内。

  五、研究意义与局限性

  笔者认为,距离真正意义上的人工智能时代 到来还有一定的年头,且基于法律本身的滞后性, 仍有许多未知的问题现在无法预测。同时大陆法 系的逻辑所决定,法学研究始终无法脱离于滞后 因素,但学者必须尽可能在问题发生之前去思考 , 这样才能在问题出现之时第一时间提供理论依 据,且将风险造成的破坏限缩在一定程度,进而提 供现实意义上的作用。确保即使侵害发生,也能找 到最适格的被告主体进而进行司法救济,维护社 会稳定。

  参考文献

  [1] 冯雨奂.ChatGPT 在教育领域的应用价值、潜在 伦理风险与治理路径[J].思想理论教育,2023(4): 26 -32 .
  [2] 郭毅可.论人工智能历史、现状与未来发展战略 [J].人民论坛·学术前沿,2021(23):41-53 .
  [3] 王艺明.人工智能时代劳动价值的挑战、风险与机 遇——一个马克思主义政治经济学分析[J].厦门 大学学报(哲学社会科学版),2023.73(2):11-18 .
  [4] 张亦佳.强人工智能设备面临的伦理困境与风险 [J].江苏社会科学,2023(2):58-67 .
  [5] 劳东燕.法益衡量原理的教义学检讨[J].中外法 学,2016.28(2):355-386 .
  [6] 王昭武.法秩序统一性视野下违法判断的相对性 [J].中外法学,2015.27(1):170-197 .
  [7] 贺栩溪.人工智能算法侵权法律问题研究[D].长 沙:湖南师范大学,2021 .
 
 
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/73714.html

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml