Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 法律论文 > 正文

机器人伤人事故中是否存在“责任空场” ——基于亚里士多德的责任观论文

发布时间:2023-06-26 11:09:16 文章来源:SCI论文网 我要评论















SCI论文(www.lunwensci.com)
 
   摘要:在我国法律规定中,机器人不能成为责任的主体,机器人不具备自由意志,机器人的行 为都是由人为控制的,因此认为机器人不承担事故的责任。责任主体应当是生产该机器人的企业或 者说是机器人设计师本人的意志,部分伦理学家可能会认为应当是操作该机器人的工作人员承担责 任。这时会出现三个责任主体:机器人、工作人员、设计师。在这三个责任主体中,谁应当为事故 负责任?根据国内法律规定, 员工职务行为结果应当归属于单位,也就是该企业应当承担责任,为 员工的过错埋单。显然这是不合理的,因为在各项规定都得到应有的保障时,企业也没有必要承担 责任, 这时就会出现“ 责任空场 ”。“ 责任空场 ”并不存在, 必定有一个主体作为责任承担者。

  关键词:责任空场 ,责任伦理,亚里士多德,机器人,责任主体

  现代社会中 ,工业机器人被认为是工业化的 一段成功历史 ,多年来 ,工业机器人的销售和使 用数量呈蔚为可观和迅猛增长之势 。在这个过 程中 ,人类工作越来越多被机器人取代 ,在这种 趋势下,技术后果研究将工业机器人投入使用后 所带来的劳动变化作为了其观察和思考的重点 课题 。由于整个生产流程只在极少数情况下才能 自动化 ,所以 ,手工行为和机器人动作就成了一 种必然的结合。在这个结合的过程中难免会出现 事故问题 ,这种事故也将会出现更多责任归属问 题:机器人是否可以成为责任主体?受害者是否可 以完全从承担责任方取得所有报偿?在现代社会 里,行为后果之间的综合因素越来越复杂,他们之 间相互依存和变化 ,法律对于这些原则的前瞻性 和回溯性责任的变化也在不断增多 。因此,我们必 须从多方面进行思考。无论从因果关系还是从责 任伦理方面 ,责任的承担必定要有一个伦理学上的、对双方都合理的结果,而不是国家法律规定一 个责任方。

\

 
  一、责任归属问题概述

  责任首先可以区分为标准方面的责任和因果 责任两种 。因果责任仅仅只表示因和果的关系,并 随时可以用原因的概念来进行替代。从这个理路 下,“ 肇事者要为车祸负责 ”这句话不外乎是肇事 者引起了这场车祸。这件事中的原因认定都是从经验方面考虑的 ,而非价值判断或者标准规范的 责任归属问题 ,那肇事者是不是车祸的必要因果 条件?然而,在技术伦理学中 ,因果关系中的原因 归属经常处在生活中或者大自然中的各种综合关 系中 。当我们认定这个司机是这场车祸事故的原 因时 ,只是从诸多因果条件里选出了一个我们所 “认可 ”的因果条件。这个人们都“认可 ”的因果 条件 ,实际上只是处于人们可接受的范围 ,认为 我们有必要对它进行强调 ,而只把其他因果条件 (例如雨天路滑 、交通拥挤 ) 作为自然背景看待 。 所以判定一个责任归属不仅要通过综合因素 ,而 且要考虑标准规范 (如道德、伦理的 )。

  标准的责任包括前瞻性和回溯性。在前瞻性 方面 ,只要人们对自己或者其他行为能力的实体 提出标准要求的地方 ,都可以将责任归结到那 里 。正是因为他们采取这样的做法 ,所以他们就 把满足相关要求的前瞻性责任归属给了当事人 。 在回溯性方面,行为者给自己或是针对别人的主 张和态度,决定自己或别人是采取行动还是放弃 行动 ,或者以某种方式把行动和不行动的结果和 附带后果归结到自己身上 ,就如同车主在买车的 那一刻就已经做好要出车祸的准备 ,车主在这一 刻已经准备好要对此负责了。前瞻性和回溯性的 责任归属含义是完全不同的,但却可以紧密联系 在一起。例如,制造商要对产品的生产标准负责,这是前瞻性的示例。但同时,制造商要对不合格产 品所产生的问题负责 ,这是回溯性责任。显而易 见 ,回溯性责任的归类不能简单列为因果关系,我 们必须考虑到特殊情况存在 ,这些特殊情况某种 情况可以免除作为个例的当事人行为的回溯性责 任,但一个人要为自己的行为前瞻性地负责任。

  亚里士多德的基本的归属标准就是回溯性责 任的理论根据 。在亚里士多德认为 ,行为者对自 己负责任有三个条件。第一 ,自己是行为的原因 。 在亚里士多德的行为观中,人的行为分为两种,一 种是对自己行为负责 ,这种行为是自己本人发出 的。另一种是自己不是行为的原因,这种行为是由 外力影响的 ,而且这个外力必须是不可抗拒的且 合理的。例如,驾驶员在行车过程中被后车撞击后 被迫向前行驶而出车祸,对于这种属于在机缘巧 合下被外力阻止而做出 ,不是由于自己做出的行 为不必承担责任。亚里士多德认为,人只对原因是 内在的行为负责;对于那些原因是外在的行为 ,即 原因不在他自身而在他自身之外的行为 ,不需要 承担责任。第二,行为者能够控制自己这一行为 。 例如驾驶员在行车过程中脚被刹车踏板卡住不能 动而出了车祸 ,这个过程中驾驶员无法控制自己 的行为 ,在无法控制自己行为的情况下 ,我们不 需要对事件负责任。如果我们可以自由控制自己 踩下刹车而且毫不费力 ,在出现事故的情况下 , 我们要对此负责任。亚里士多德认为 ,自己能够控 制自己是负责任的重要条件 ,例如醉酒的人造成 了事故只能免除一定的责任 ,而不能完全免除 。 第三,知道自己正在做什么。如果一个精神分裂症 患者在发病期间造成了事故,那么他不用对自己 负责任 ,因为他不知道自己在做什么,这件事本身 就失去了原因,就像是飞来横祸,完全是无意识的 行为,几乎可以归结为大自然中随机事件。如果一 个人明知道自己接下来要做什么 ,而且明白做了 这件事之后会产生什么样的结果,那么事故发生 了 ,这个人必定要承担责任 ,这属于有意识的 、 恶的行为,人类需要为自己的恶行得到相应的惩 罚。所以,知道自己正在做什么也是亚里士多德评 判一个主体应不应该负责任的重要条件。

  亚里士多德在论述了三个负责任的条件之后 ,还提出人在这两种情况下不用对自己负责 任:被强迫做出的行为和出于对一件事的无知所做出的行为。[1] 在被强迫的情况下 ,自己对此无能为 力 ,而且行为原因在行为者之外 。例如当一个歹 徒强迫银行工作人员打开保险箱,并把钱都交给 歹徒 ,如果不打开就要结束工作人员的生命 ,这 个时候工作人员做出这一系列事情后不必对这件 事负责任。亚里士多德认为完全的无知行为是不 自愿的行为 ,因为行为者往往在做出无知行为之 后非常悔恨 ,实际上自己是有知识的 ,是对自己 无知的悔恨 ,因此人们不必要对自己的无知负责 任。如果一个人处于意识不清醒时做出了一个决 定 ,而这个决定伤害到另一个人的时候 ,就可以 不承担责任。但是一个人是有意识地使自己处于无知的状态下,那么这个人将对自己后续的后果 负责任。

  因此,对于亚里士多德的基本归属标准:我们 只能针对行为当事人有能力控制和他实际控制的 那些自觉自愿的事情,来追究回溯性责任 。由自身 错误所引起的缺乏自我管控的行为,应该受到谴 责和惩罚;同样,如果从标准角度说 ,以行为人自 身的认知水平是能够做到对基本伦理规范的了解 的话,那么对这些规范表现出的茫然无知也应受 到谴责。

\

 
  二、机器人事故中的“责任空场 ”

  国际标准中的 ISO 8373- 1994:操作型工业机 器人,所沿用的机器人定义为:机器人是一种至少 有三个运动轴的 、自由和可重复编程的 、多用途的 操作手 ,用来在已编程或可变的路径上移动材料 或特殊装置,并完成各种不同工作。“ 机器人 ”最 早起源于捷克作家雷尔 · 恰佩克的作品《 罗素姆 的万能机器人 》中 ,该词写作“robota”, 为“劳 动 ”之意 。因此机器人的定义可以被理解成一种 “万能的劳动工具 ”。[2] 在如今机器人技术可以被 视为工业化过程中的一个中心概念 ,产品不再由 工人手工完成,从而生产效益得到了提高。然而 , 罗纳德 · 阿金 —— 著名机器人技术专家和机器人 伦理学家 ,在 2007 年提出要对能够杀人的自主机 器人予以伦理规范约束的观点 ,这时候便引出另 一个伦理学任务范畴 ,即在机器人直接与人出现 争端的情况下根据什么道义准则可以对其进行制 裁?在这个过程中,机器人代替了人的行为,需要 谁来承担责任?

  所以 ,应当引起我们注意的是机器人在工作中针对无关的第三方所带来的责任问题。工作机 器人的工作环境通常是开放的场地。举例来说,一 台正在自行工作的农业收割机所工作的区域是固 定的 ,而且一台机器在工作中需要一个学习和适 应的过程,在这个学习的过程中,处于制造商之外 的企业所属的工程师将对机器人进行编程调试一 段时间。所以,一台机器人将在边学习边摸索的过 程中不断调整适应一段时间 。同时,一个无关的第 三方,例如田地边骑车的人或行人路过时,有可能 会经过机器人的工作区域 ,这将和人的行动区域 产生冲突 ,冲突将会导致行人受伤,从而引发由谁 来为事故负责的问题。

  关于这个问题,从技术伦理学的视角来看,关 于这种机器人行为的责任分配问题在这里就变得 十分不合理。生产商交货的是一台具有学习能力 和被调试功能的机器人系统 ,在企业使用一段时 间后 ,生产商将不再能针对机器人的动作做任何 预告,并且无法预知机器人的学习过程的内容 。 因此生产商无法通过限制机器人的学习过程而免 除其所承担的责任。另外,机器人的使用者通常也 没有能力对机器人的运行过程进行评估。一般来 说,使用者通常是遵守使用指南的,而且也会定期 对机器人进行维护保养 ,如果是没有遵守使用指 南的话 ,责任的归属问题就很容易归给操作人员 了。然而,让使用者为机器人的事故承担责任,而 且是从机器人在学习和分析过程中进行监督的意 义上承担责任 ,这已经超出了一个操作人员的能 力范围。这样,一种有学习能力的系统就在生产商 质量保证和使用者责任之间产生了灰色地带。

  三、基于亚里士多德责任伦理的机器人事故责任分析

  下文将从亚里士多德的责任伦理学角度 ,以 及前文拓展的前瞻性和回溯性责任归属的问题讨 论谁应该为机器人事故负责任。

  第一,在前文提到,责任首先可以区分为标准 方面的责任和因果责任两种。[3] 因果责任仅仅表 示因果关系 ,用原因来解释机器人事故的责任方 只能归于机器人来承担责任 ,因为机器人是首当 其冲的伤害方。然而,这里就存在一个责任的主体 性问题,机器人不能作为责任主体。人类具有自由 的意志是我们能够对自身行为承担责任的先决条 件。这种自由意志可以理解为行为者拥有理性,并且行动者从各种抉择中选择某个行动的一种能 力 。而机器人只是基于制造商预先设计的程序进 行的,不会超出这个行为范围,也就不存在自主意 识。从康德哲学意义上讲 ,拥有理性的人首先拥 有自我设计 、自我选择 、自我管理 、自我实现的能 力 。因此机器人不具备成为责任主体的能力,机器 人也感受不到惩罚带来的痛苦;第二,工程师在设 计机器人的同时赋予了其一定的自我学习和自我 检测还有自主决策功能 ,在这个过程中 ,人类没 有从中干预 ,制造商只是给机器人打开一个电源 开关,后续发生的过程全是机器人自主影响的范 围 ,因此,机器人具备一定的自主性;第三 ,问题 的关键就在于如何对机器人进行惩罚。首先可以 理解的是对人类的惩罚是限制人身自由和对其造 成伤害或者进行赔偿,但这三项对于机器人没有 任何意义,机器人的意义在于工作、劳动、为人类 服务 ,而这一切的基础是机器人的程序或者是编 程,我们可以通过终止、销毁机器人的程序,使其 失去本身的价值和意义 ,在某种程度上是对其本 身的一种惩罚,虽然这里没有涉及赔偿,但也为其 中的责任空白做了一定的补充和建议。

  四 、结语

  工业机器人是工业发展的方向 ,在不久的将来,工业机器人将大量地应用于各行各业 。由于算 法和软硬件技术等原因 ,工业机器人并不是百分 之百安全的,那么万一机器人引发事故,谁应该为 这一事故承担责任?一些伦理学家认为 ,机器人 伤人事故存在“责任空场”。 亚里士多德责任伦理 是研究道德责任问题的经典理论 ,它为我们分析 和认识这一问题提供了理论指导。从经典的亚里 士多德责任伦理来看,使用者应为机器人事故负 责 ,因此并不存在责任空场。本文有力地回应了机 器人伤人事故道德责任主体 ,希望能够解决“责 任空场 ”的问题 ,同时也为工业机器人方面的立 法提供一定的伦理基础。

  参考文献

  [1] 亚里士多德.尼各马可伦理学[M].北京:中国社科出版社,1990:75.

  [2] 格伦瓦尔德.技术伦理学手册[M].吴宁,译.北京:社会科学文献出版社,2017:616.

  [3] 顾世春.费希尔道德责任理论视角下自动驾驶汽车使用者道德责任研究[J].自然辩证法研究,2015.31 (8):113-118.
 
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!
 

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/58171.html

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml