SCI论文(www.lunwensci.com):
摘 要:目前,学界对人工智能是自主的且能够独立承担责任的论证都是基于行动自主的,这并不能解决人工智能承担责任的问题。人工智能的自主性问题实质上是在决定论世界里讨论能动者能否自主的问题。在理性回应论的支持下,人工智能有可能是完全自主的,并且能够承担义务责任。人工智能所承担的义务责任是一种联合义务责任,根据与人类关联的形式,分为多种责任承担形式。人工智能的使用者需要注意忽视的责任,而非人工智能的使用者要承担不使用人工智能的责任。
关键词:人工智能;自主性;决定论;责任
近年来,人工智能的发展进入了一个新的里程——从新锐的概念到真正进入公众生活,例如,自动驾驶汽车、人工智能机器人,甚至人工智能武器。人工智能与现实生活的接轨引发了一个严峻的问题:人工智能的责任归属问题。这不仅仅是一个法律问题,也是一个道德问题,是对人类现有责任观的挑战。
事实上,对人工智能的种种担忧与争论并非是一个全新的哲学话题,早在人工智能诞生之初,图灵与塞尔就分别通过“图灵模型”与“中文屋论证”探寻过人工智能的标准与极限。但是,随着大数据与深度学习支持的人工智能上线与应用,图灵与塞尔的理论显示出其短板——人工智能亟待解决的相关哲学问题不再是机器能否取代人类(这在许多领域已经是不争的事实),而是人工智能对人类法律与伦理的冲击。人工智能是否独立的责任者,又如何在与人类智能的接驳中各自或共同承担责任,这是需要深入探讨的问题。
作者简介:邬桑,东北大学马克思主义学院哲学系讲师。
一、简化了的“人工智能自主性”
人工智能机器人通常也被称为自主机器人,许多哲学研究认为,目前的人工智能可以称得上是自主的能动者 a,甚至一些哲学家认为非人类的自主能动者本身就能够承担责任,而非由其设计者或使用者承担责任b。笔者认为,“人工智能是自主的”这一观点不够严谨,随之而来的“人工智能是独立责任承担者”的观点值得商榷。这些观点的背后缺少对自主概念的追问。
自主(autonomy)概念一般应用于人类,被理解为“个人根据自己的理智推断和动机欲望主宰自己生活的能力,而这些理智推理和动机欲望都不是操控性和歪曲性的外部力量的产物”。自主的概念有两层含义:一是自我管理,另外一个意思为自我立法。实际上,笔者认为,自我立法是自主中更为重要的部分。作为自主理论研究 的源头之一,康德认为,自主不仅仅意味着自由意志,同时也意味着自由意志服从于自己制定的道德法则。c 目前主流的自主理论也继承了康德的观点,认为自主并非仅仅是“自己作出决定”,更重要的是作出决定的过程完全处于能动者的统御之下。决定、行动与能动者对自身的权威紧密相连,它们的关系决定了能动者是否自主。
对于人类来说,自主选择所遵循的“权威”即“自我”。能动者必须认同他自己的决定,必须由他自己的决定而非其他权力促使他行动。一旦涉及自我认定,能动者就必须遵循一套完整的价值观念,来区分什么是“我”想要的,这就意味着人的自主与道德判断息息相关。一个人必须认定自己采取行动是根据对的判断和决定。个人的行动如果不符合其价值体系,通常会被判定为非自主的。例如,一个瘾君子在吸毒的同时深信吸毒是不好的,他不应该吸毒。但是,他无法抑制身体强烈的渴望,这驱使他吸食了毒品。显然,他在这个过程中不是自主的。如果他遵从内心的价值判断,选择不吸毒,那么,他才是自主的。在这个案例中,从信念到行动的转化失败了,能动者丧失了对自身的权威。
如果说人类的自主通常与道德相关,那么,自主概念实际上隐含了两种层次: 一种是行动自主,另一种是道德自主。行动自主仅仅指因果关系上,如果一个人的意图成功地引发了他的行动,那么,他就是行动自主的;而道德自主探寻意图的成因,追问能动者是否遵循自己的内心。因此,道德自主是传统责任观的基础,也是法律判定的基础。
一个行动自主的能动者应当符合 BDI(belief-desire-intention)模型。自主是一个与行动相关的概念。能动者实践自主的过程从一个信念开始,如果这个信念与世界不符合,那么想要使世界符合信念的想法就是欲望,通过欲望指向客体的就是意图,从而成功地改变世界,这就是 BDI 模型。根据这一模型,一个自主的能动者需要满足的条件包括:
(1)具备一个如实描述了环境中的事物的表征状态;
(2)具备一个驱动状态,明确描述了期望环境中的事物如何改变;
(3)具备实现它的表征状态和驱动状态的能力,当环境不能符合驱动状态的 描述时,去改变环境。
佩蒂特认为,任何成功执行了这一模型的能动者都是自主的能动者,人工智能也不例外。c由于大数据与深度学习的支持,第三代人工智能展现出了与人类智能相似的能力:能够自我归纳,从数据中总结出某些规律;能够自我学习,从而在遇到新情况、新问题时,根据经验和数据来灵活处理。这就意味着,人工智能在足够的数据支持下,能够独立地根据情景形成自己的表征状态、驱动状态和改变情景的意图,并且根据该意图采取行动,顺利实现 BDI 模型。从这个意义上讲,人工智能是自主的。
但是,这种“自主”指的是行动自主,仅仅等同于独立。佩蒂特对自主能动者的论证只实现了自我管理的层面。这种论证实际上简化了自主的概念,认为能够作出决定即自主,将逻辑推理和计算能力等同于人类的理智,将人工智能的目标与执行力等同于人类的欲望,从而认定人工智能是自主的。行动自主将自我立法的过程排除在外,仅仅考量了决策与行动的连贯性,是削减版的自主概念。
将“简化的自主”概念加诸人工智能,直接导致了“人工智能是独立责任承担者”的观点。哈格是这一观点的支持者,并且他提出了看似完整有说服力的理论。他认为,人类能够对自身行动负责任的原因与其说是因为人类真的具有意向性或自由意志,不如说是将能动性和责任作为一种属性附加于行动之上。他如此论断的原因在于,无论人类的大脑状态如何,意图和意愿在行动中都没有对物理世界真正产生影响,产生影响的只有行动。那么,既然责任是行动的属性,人工智能的行动也能够具备这种属性,只要人们接受将责任作为人工智能的属性,人工智能就是能够负责任的能动者,与人类无异。a 哈格的这种论证并不是否定了意图的存在价值, 而是认为人工智能的决定与人的自由意志的选择没有差别——至少是在 BDI 模型中毫无区别。他显然是赞同人工智能具备简化了的自主性,才会得出这样的结论。
然而,将自主简化为行动自主,就不能完全支持能动者的责任认定。事实上,自主理论并非仅仅是要成功地实现从建立信念到行动的过程,更致力于排除在这一过程中威胁到自主的因素。这些因素在哲学描述中得到最多讨论的包括:强迫、上瘾和洗脑。一旦能动者被它们控制,能动者的行为后果就无需自己负责。值得注意的是, BDI 模型排除了强迫和上瘾,但没有将被洗脑排除在自主的大门之外,就是说,一个成功实现BDI 模型的能动者可能是被洗脑的,并不具备自主性,也不能对行动负责任。
因此,哈格对意图与世界关系的理解是有偏差的。即使意向性不影响真实世界这一点成立,何种因素削弱了意愿、意向与行动之间的联系仍然非常重要,这些因素真实地改变了世界,它们改变了本可能在世界中实际出现的事件。
回到对人工智能的讨论,即使人工智能具备了相当的决策能力,它们的决策程序仍然是由人类设定的。也就是说,人工智能的权威并非来自它自身,而是人类赋予的,它们是“被洗脑”的。
一个以保护财产为目标的人工智能与另一个以保护人身安全为目标的人工智能在同样的情境下,可能会作出完全不同的决策,并且,它们不可能作出另外的选择。如果仅仅只有行动自主的支持,这两个人工智能造成的相应结果的责任,似乎更应当追问程序的设定者,而非人工智能本身。因此,在简化的自主下讨论人工智能的责任是不严谨的,更谈不上让人工智能成为独立的责任承担者。
因此,人工智能的自主性讨论不能仅仅采用建构模型的方式,BDI 模型没能一劳永逸地解释自主性的问题,我们更需要将眼光放在使人工智能不自主的因素上, 寻找人工智能自主性问题的实质——毕竟,一只黑天鹅就能够否定“所有天鹅都是白的”这一论断。
二、人工智能自主性问题的实质
人工智能是由大数据驱动的,大数据赋予了人工智能在变化中应对复杂局势的能力,同时也奠定了人工智能作决策的基调:人工智能有作决定的能力,但是,没有在同一时间作出不同选择的能力。
“人工智能的世界是由人的数字化行为构成的数据世界。”b 人工智能目前之所以表现出了类似人类智能的能力,一方面是设计者放弃了让人工智能像人类一样思考,削弱了因果性思维在程序设计中的地位,转而大量采用相关性思维的程序设计,使人工智能通过数据将两个事件建立起联系;另一方面,大数据技术的发展使得人工智能能够获得海量的数据支持,运用统计学精确地挖掘出有价值的信息,形成决策的资源。
人工智能的决策能力完全依赖数据和算法,它在给定世界的给定时间上只会给出同一个决定。数据决定了人工智能能够达到的深度,算法决定了通过迭代计算可得的最优解。这似乎给了人工智能无限的可能性,但是,对于给定的人工智能程序,它在给定的时间上所得的数据是固定的,它的设计算法也是固定的。因此,它能够给出的决策也是固定的。这与人类不同,人类可能因为一念之差而在某个时间上作出不一样的选择,而人工智能并没有另外的选择。
因此,人工智能等同于一个决定论世界中的能动者。决定论,即在任何时刻只有一种可能的物理未来。决定论不仅是一种对物理世界的认知立场,同时也是自由意志的支持者最为头痛的对手。特别是,近年来脑神经科学的研究进展支持决定论;量子力学虽然是统计决定论的,但根据现有的发展,也没有为自由意志的存在留下空间。
这使得哲学家们无法再回避决定论,不得不为自由意志的存在另寻出路, 发展自由意志与决定论之间的兼容论,即,认为决定论世界中的能动者也可以有自由意志。人工智能(公认的)不具备自由意志,无需讨论它与决定论之间的兼容性, 同时,它在任何时刻都只有一种可能的物理未来。在理论上,完全可以将人工智能看作决定论世界中的能动者,并在这一背景下讨论人工智能的自主与责任。
人工智能自主性问题的实质是在决定论世界中讨论能动者能否自主,并且,该讨论本身是有意义的。与兼容论相对的非兼容论认为,在决定论世界中,即使考虑到所有的事实与规则,也只能有一种物理未来,那么,人的所有的行动都是被世界控制的,能动者本身不可能具备自主性,对自主性的讨论也没有任何意义。但是, 兼容论则认为,即使决定论真的否定了人在行动中具有自由意志,人们仍然有想做某事件 A 的欲望,在最起码的程度上努力去做 A,并且,在自己的理性支持下给出做 A 的理由。
这意味着,如果我们将自主理解为“在任何时间上都能作出其他选择”,那么,决定论世界中不存在自主的能动者。而如果将自主理解为“为自己的行为给出适度的理解,并具备潜在的选择能力”,那么决定论世界中的能动者依然可以是自主的。对自主性不同的理解为决定论世界能兼容自主性打开了一扇窗,同时,也意味着人工智能有可能是自主的。
三、决定论下的自主性问题
自主理论与决定论能否兼容,决定了该理论能否为人工智能的自主性辩护。人工智能自主的可能性寄托于存在一种受到广泛认可的自主理论,它与决定论相兼容。目前,占主导地位的自主理论有四种:自由意志论、融贯论、理性回应论和推理回应论。它们各自的简要定义如下:
自由意志论:当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的。
融贯论:当一个人的高阶欲望与低阶欲望相契合的时候,他是自主的。
理性回应论:当一个人能够意识到理性,并有能力根据理性作出决定和行动的时候,他是自主的。
推理回应论:当一个人能够为自己的决定和行为给出合理的推理时,他是自我控制的。在此基础上,如果他没有被任何外部因素强迫,他是自主的。
这四种自主理论各有侧重,也略有重合。根据它们所支持的自主性与决定论能否兼容分为两组,自由意志论与融贯论属于非兼容论,理性回应论属于兼容论,而推理回应论摇摆于兼容论和非兼容论之间。
根据定义,自由意志论认为,只有当人可以作出另外的选择时,他才是自主的。这在决定论世界中是行不通的。即使有学者争辩,自主性是能动性和意向性的结合,只要存在作出另外选择的可能,即可认为自主性存在。e 但是,假设有一颗有意识的自由下落的石头,它会认为它是完全自由的,认为它的下落是在它自己的愿望下发生的。然而,石头完全受制于物理事实,并没有它自己认为的自主性。因此,自由意志论属于非兼容论,不能为人工智能的自主性辩护。
同样,融贯论强调核心自我(central self)的欲望与行动欲望的层层递进、相互契合。当人处于决定论世界时,他的核心自我的欲望与行动欲望都是被决定的,那么他不具备自主性。即使他的核心自我能够形成欲望,他的行动欲望仍然是被物理世界限制的。要么,他的核心自我与行动相矛盾,只具备潜在的自主性而不具备行动自主;要么,他的所有欲望都是被决定的,连潜在的自主性也不具备。因此,融贯论也不能为人工智能的自主性辩护。
推理回应论比较特殊,它是否能够支持决定论世界的能动者的自主性取决于决定论的强度。强的决定论认为,人类的大脑也是物理世界的一部分,也是被决定了的;而弱的决定论认为,人脑以外的物理世界是被决定的,人仍然有随时改变想法的可能。推理回应论认为,自主性是一个人以所相信和渴望的为基础来评估自身动机的能力,并且根据自身的(可能涉及价值的)评估来调整动机。a 它强调的不是能够按照“正确的”或者普适的价值观作出反应,而是能够通过推理的过程驾驭自己的动机。
同时,它也强调必须由核心自我给出推理的过程,能动者不能处于“洗脑”状态。当处于强决定论世界时,能动者所作出的决定是由物理大脑根据经验与自身特性决定的,推理过程是大脑在决定以后用来肯定自己的选择的。能动者根本没有核心自我,处于“洗脑”状态,因此,没有自主性。然而,当处于较弱的决定论世界时,能动者即使在行动上受制于物理世界,依然可能为自己的行动给出有说服力的推理过程,那么,他可以是自主的。
然而,很遗憾,即便推理回应论有可能属于兼容论,它依然不能为人工智能的自主性辩护。因为,对于人工智能来说,推理过程即算法的运行过程。算法是由设计者决定的,运行过程也是固定的。人工智能等同于一个在强决定论世界里的人, 它的“大脑”是物理世界的一部分,它的理性来自世界。因此,按照推理回应论,人工智能虽然能给出完美的推理过程,却不可能是自主的。
理性回应论是唯一有机会为人工智能的自主性辩护的理论。它强调能动者具备一个稳定的理性决策方式,其中提到的理性是道德理性,并且,该决策方式能够被具有相似价值和信念的第三方理解。决定论并不排除理性甚至道德理性的存在,这为自主性的存在留下了一线生机。当人可以采取理性来支持自己的决定时,他就是自主的。
人工智能的决策方式能够满足理性回应论。首先,人工智能具备一个理性决策方式,即算法。目前,人工智能的算法都是通过数据间的联系寻找最优解,它符合人类从经验中总结规律的思考方式,是一种稳定的理性决策方式,在逻辑理性上符合理性回应论的要求。同时,理性回应论要求决策方式的理性涉及道德理性,这一点对人工智能来说并不难。如果人工智能的决策完全不涉及道德,我们就无需为了人工智能如何承担责任的问题烦恼了,只要根据哈格的论证,认定人工智能承担全责即可。
然而,人工智能的决策必然会涉及对错,它必须“理解”人们想要的是什么,否则它就无法为人类服务,也无法与人类合作。例如,自主驾驶汽车必须在程序设计上考虑路人的安全与乘客的安全,而不仅仅是避免碰撞。其次,人工智能的决策方式可以被第三方理解。这里被选择的第三方,正是人工智能的使用者。试想,如果使用者发现人工智能的选择总是与自己想要的相左,或者使得自己的工作、生活更繁琐而非更便利,他就不会继续使用人工智能。人工智能的算法是设计者对使用者的理解,也是智能社会中全新的人与人的联结桥梁。甚至,目前的人工智能已经能够根据算法来适应用户习惯,提供更令用户满意的服务。这正是设计者为了让使用者作为第三方理解人工智能而做出的努力。
因此,在理性回应论的支持下,人工智能可以是自主的——不仅仅是在行动上自主,同时也是在算法相关的道德理性上自主。在此基础之上,才有可能进一步来讨论人工智能的责任问题。
四、人工智能相关的责任归属
自主是责任的基础。但是,即使论证了人工智能的自主性,人工智能的责任划分仍然是一个难题。难点在于,自主并不直接地对应责任,责任本身也有不同的区分。一种较广为人知的责任的分类来自哈特(Hart)。a 哈特将责任区分为地位责 任(role-responsibility)、因 果 责 任(causal responsibility)、义 务 责 任(liability- responsibility)和能力责任(capacity responsibility)。地位责任指的是某人在社会组织中具有特殊的地位或职位而被赋予的某些特殊职责。因果责任指的是根据因果关系对造成的后果负责任。义务责任则是指人根据法律、道德等规范应当付出的代价。能力责任是主张某些人具备一些能力,并因此应对其行为负责。
从四种责任的定义可以看出,哈特对责任的分类主要是为法律与刑罚提供参考。因此,从哲学的角度来看,四种责任的内涵之间有所重合。地位责任与义务责任有所重合。地位本身就是由社会规范所赋予的,它所承担的责任通常都与法律和道德有关,因此,地位责任能够转化为义务责任。因果责任与能力责任也有所重合。因果责任可以看作是能动者运用了自己的能力后,对造成的结果负责。或者, 从另一个角度,因果责任也可以看作是能动者本可以运用能力,但没有这么做,由于因果关系而为疏忽负责。总而言之,能力责任都是由于因果关系改变了或未改变世界所形成的责任,因此,笔者认为能力责任能够转化为因果责任。
人工智能的责任争议主要指的是义务责任的争议。由于因果责任是按照因果关系划分的,人工智能所造成的结果理应由它本身承担,这是毫无争议的,就像地震应当为房屋倒塌负责一样。人工智能的义务责任划分却不那么明确。这是因为, 传统的问责方式将人造物视为无法理解道德的,也就不能承担道德或法律责任。这种观点“混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间的本质差异”。
上文中已经论证了人工智能能够具备道德自主性,因此,有资格成为义务责任的承担者。问题在于,义务责任能够被赋予人造物吗?笔者认为答案是肯定的。机器的意向性是人赋予的,丹尼特认为,意向性最适合解释机器行为的时候,我们就认为机器具有意向性。b 所以,机器具有意图是一种属性论。如果说机器可以把意图作为附加属性,那么同样可以把义务责任作为一种附加属性。笔者虽然对哈克的意图与世界关系论证有微词,但认同哈克“责任是一种属性”的观点。义务责任并非人类天然具备的,对人类来说,它也是一种附加属性。既然义务责任是依据人类的理解,通过道德与法律规范附加在人类身上的,那么,人工智能通过算法具备了道德自主性,同样可以被赋予义务责任。
人工智能所承担的义务责任是一种联合(joint)义务责任,而非传统责任观中一力承担的责任。虽然人工智能可以“理解”道德理性,但是,它的道德理性是由设计者赋予的,它的行动是由使用者监管的。这就形成了设计者、人工智能、使用者之间无形的联结。在人工智能能够完全理解身体与道德之间的关系、实现无监管地行动而不违背任何伦理规范之前,这个联结都不会断裂。遗憾的是,目前来看,人工智能在相当长一段时间内无法实现对于身体与道德关系的理解。c 因此,人工智能的义务责任总是与人类相连的。那么,传统的个人各自承担责任的模式必然不适合人工智能。
人类合作者之间的责任研究也许能够给我们一些启示。虽然,人类合作者之间的责任研究同样充满争议和问题(例如,责任债务问题、过充分决定问题,等等),但是,或许可以从已有的研究中为人工智能的责任问题探寻一下出路。
首先,联合义务责任可以有多种形式。随着技术的发展,人工智能与人类的合作将会前所未有的复杂。第一,人工智能单独采取行动(如果被允许的话),例如, 无人驾驶汽车。由于人工智能可以是自主的,应当承担全部责任。并且,基于人工智能与设计者的联结,设计者承担连带责任。第二,人工智能可能处于使用者的监管之下。这种关系类似于工作中的上下级,那么,负责执行的人工智能将承担全部的因果责任和部分义务责任,而使用者因为处于监管地位,承担义务责任。第三, 人工智能可能与人组成集体能动者。集体能动者能够具备独立于任何成员的欲望和意图,在此基础上,集体能动者承担全部责任。d 第四,第二种与第三种情况可能混合出现,那么,可以将其视为升级版的集体能动者来承担全部责任。
其次,由于设计者—人工智能—使用者之间的联结与承担义务责任有关,使用者对人工智能“内部”的了解变得十分重要,放任人工智能的使用者要承担“忽视的责任”。使用者需要明确自己的人工智能能够做到的范围,并且防患于未然。目前的人工智能已经能够根据用户的喜好改进自己的行为,这就意味着,如果使用者不去了解他的人工智能能够做什么,随意地给人工智能灌输不良的行为喜好,会使得人工智能成为糟糕的社会成员。这一点也是人工智能威胁论所担忧的,人工智能可能通过学习对人类产生威胁。因此,在这种情况之下,使用者忽视了可能造成的后果,应该承担相应的义务责任,也就是笔者所说的忽视的责任。
再次,非人工智能的使用者同样要承担一些义务责任。这一点是针对与人工智能—人的集体能动者对立的自然人而言的。目前的无人驾驶汽车已经号称超越了人类驾驶员的安全基准,能降低驾驶事故的概率,促进公共安全。假如这一论断成立,就意味着不使用自动驾驶系统的驾驶员将成为马路上的危险者,对他人的安全构成威胁,他们应当承担起相应的责任。如同智能手机普及以后仍然使用传统手机的人,一旦因为手机的原因错过了重要的工作或者生活消息,他们会遭到其他人的谴责。随着人工智能越来越“聪明”,不使用人工智能的人迟早会迎来要承担义务责任的一天,并且,这一天可能并不遥远。
本文将人工智能的自主性问题转化为决定论世界中能动者的自主性问题,并且,在理性回应论的支持下,得出了人工智能不仅仅是行动自主的,而且可以是道德自主的,因此,能够承担义务(道德)责任。这一结论也许不会得到全部人工智能研究者的认同,但是,它为亟待解决的人工智能的责任分配问题搭建了地基。人工智能的责任问题必然要摆脱传统的单一问责机制,走向社会—技术—认识系统中的问责机制。只要将人工智能视为自主的道德能动者,它与人类的合作就能被视为集体行动者,人类合作者之间的责任分布研究就能够为人工智能与人之间的责任分布指引方向。但是,这只是一小步,其结论也只是一个大致轮廓,人工智能的责任研究依然任重道远。如若想使人工智能的责任图景更为清晰,需要更深入地探讨人工智能对伦理的具身化理解、深化人工智能与人之间合作方式的研究和认知结构对比研究,这将会推进对于人工智能—人的集体能动者的理解,从而对人工智能的责任细分产生更为深远的影响。
(责任编辑:肖志珂)
Philosophical Analysis Vol.9,No.4,2018
Key words:poverty;individual principles;community principles;police;corporation
●Joseph Raz’s Taxonomy of Reasons: Focusing on Normativity JIN Tao Abstract:We often encounter some confusions,by that we can understand the normative reasons. Razraised a unique taxonomy of reasons. The moral reasonsbehind are the natural state of the first-order reason of action,and they will be in conflict both on the level of application and the level of value. Advice,request and order are all important tools for helping others to resolve conflicts,among which order provides a new second-order reason,and changes the normative state of the first-order reason. The first-order reason and the second-order reason can be combined into one kind of protective reason. The legal norms are exact exemplars
which play a unique and important role in normative reasoning.
Key words:Joseph Raz;first-order reason;second-order reason;protective reason;normativity
●Autonomy and Responsibility of Artificial Intelligence WU Sang
Abstract:Currently,the argument that artificial intelligence(AI)is autonomous agent and bearer of responsibility is based on the autonomy of action,which cannot sustain AI to taking responsibility. The essence of whether AI is autonomous is about whether an agent can be autonomous in a deterministic world. AI can be autonomous,even a bearer of liability responsibility,if supported by reasons-responsive accounts. The liability responsibility attributed to AI is a kind of joint responsibility. It has different forms depending on how AI cooperates with humans. Users of AI should pay attention to the omission of responsibility. Meanwhile, nonusers of AI may take responsibility for not engaging AI as well.
Key words:artificial intelligence;autonomy;determinism;responsibility
●How is the Perceptual Content Conceptual? An Investigation into the Debate Between
Travis and McDowell LIU Xueliang
Abstract:How is the perceptual content conceptual? This is a key problem of contemporary epistemology. McDowell’s conceptualism claims that only conceptual things can take part in justification,and thus perceptual content must be conceptual. His conceptualism involves two points:C1,the perceptual content being conceptual,and C2,concepts coming from language-learning. Travis criticizes McDowell’s opinion. He points out that conceptualism is a theory of representationalism that is problematic and the concept of “ostensibly seeing”,which is the foundation of conceptualism,is impossible. Thus,the C1 claim has been proved false. McDowell has acknowledged Travis’s critique and has revised his conceptualist claim. He modifies conceptualism by putting forward two statements,M1 that intuition is a kind of conceptual capacity and M2 that there are still some concepts in the perceptual content. But his revision is untenable. This article will show that McDowell’s modification has not solved the problem. What’s more,the modified C1 conflicts with C2. Therefore,McDowell’s conceptualist theory is inconsistent and cannot demonstrate how the perceptual content is conceptual.
Key words:perceptual content;conceptuality;intuition;the debate between Travis and McDowell
●Peter Raabe’s Four-stage Method of Philosophical Counseling CHEN Hong
Abstract:The Canadian philosopher Peter Raabe proposed his four-stage philosophical consulting method by reflecting on the theory and application of some philosophical consultants.“Free-floating”is the first stage
《人工智能的自主性与责任论文》(附论文PDF版下载):
http://www.lunwensci.com/uploadfile/2019/0112/20190112101949218.pdf
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!
文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/ligonglunwen/2814.html