Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 哲学论文 > 正文

基于历史视角分析的强人工智能论争论文(附论文PDF版下载)

发布时间:2019-01-09 15:39:56 文章来源:sci论文网 我要评论














SCI论文(www.lunwensci.com):

摘 要:在人工智能发展史上,强人工智能(“强 AI”)一直是一个争议不断但却又不断引发人们关注的议题。对于“强 AI”理念,我们应合理看待其所发的各种争论:(1)“强 AI”理念是推动人工智能界不断打破人机界限、使 AI技术向前发展的重要信念;(2)“强 AI”争论背后所反映的是不同社会要素,特别是“两种文化”(科学文化和人文文化)之间的张力,且 AI界的这几种文化也经历着由对立、冲突,到逐渐的尝试性对话与合作这一过程。(3) AI界、哲学界在对待“强  AI”这一议题的态度并非一成不变,AI界经历了一个由乐观与支持到悲观与放弃以及现在的谨慎心态,而哲学界对于“强 AI”的态度则是沿着由批判与质疑到现在的大力宣扬这一路径演变,且当前他们对强 AI所可能引发的风险更为忧虑。(4)“强 AI”概念需要进行重新界定,使其成为科学而非单纯的“科幻式”概念,并给予强 AI风险议题更多关注。

关键词:强 AI;“机器智能恶与善”之争;乐观主义与悲观主义之争;“智能增强”理念;“奇点”理论;“强 AI风险论”;科技巨风险

强人工智能(“强 AI”)概念由哲学家塞尔(JohnSearle)于20 世纪80 年代所提出,[1]类似的概念还包括高端“通用人工智能”(ArtificialGeneralIntelligence)、波斯特罗姆(NickBostrom)的“超级智能”(Super intelligence)、弗诺· 文奇(VernorSteffenVinge)的“奇点”(singularity)等,其对应的概念是“弱 AI”(weak AI)或应用性 AI、专用 AI。“弱 AI”不具有真正的智能或自主意识,只能解决特定领域中的问题;而“强AI”则是指达到人脑水平的机器智能,可以全面、综合地复现人类大多数(或全部)的思维能力,甚至具有  诸如自主意识、算计、情感反应等价值或情感要素。如塞尔将“强  AI”界定为“一个机器可以展示出或模拟人类水平的聪明程度,或超出人类的聪明程度”,波斯特罗姆强调“超级智能”“几乎在所有领域均能够  远远超过人类的认知能力”。强 AI是否能实现、是否与人为善,对于这一问题,学者们给出了不同看法。一些学者,如埃隆· 马斯克(Elon Musk)、史蒂芬· 霍金(Stephen Hawking)等认为强 AI最终会实现且会 与人为恶,刘益东则指出强 AI具有双重危险,属于“致毁知识”,因为其正负效应不可抵消,无论它有多大的正面效应,也是“一坏遮百好”,所以应该明令禁止。[2]蔡恒进也认为,“作为人类意识延伸的人工智能,被赋予的是偏狭而非完整的意识,在快速进化之后会导致其能力与意识状态的极度不匹配”;[3]一些学者认为强 AI的实现虽然不可避免,但它是有益于人类的,如赫伯特· 西蒙(HebertSimon)、库兹韦尔(Ray Kurzweil)等;也有人将强 AI视为是一种不可能实现的幻想,如严乐春(YannLeCun)、谭铁牛等。

关于“AI能否达到人类的思维水 平、是 否会取代甚至控制人类”这 一问题(我 们称之为“强 AI议题”),自“人工智能”这一学科产生之日起便引发广泛关注,相关分析散见于人工智能史研究中,如丹尼尔克勒维耶(DanielCrevier)在1993 年的著作《AI:人工智能研究的动荡史》中,描述了人工智能发展初期乐观派和悲观派之间的争论、对立过程;约翰· 马尔科夫(John Markoff)在《与机器人共舞:人工智能时代的大未来》一书中,对人工智能研究共同体中“强 AI派”与“智能增强派”之间的紧张关系进行了阐释,等。但是这些研究较为分散,没有能够结合各个时期争论的不同主题,对“强 AI”的整个争论史进行系统的论述,实际上,在人工智能发展的不同阶段,人们对“强 AI议题”的关注点及讨论视角一直在发生着变化(见图1)。本文主要探讨的问题是,(1)在人工智能发展的不同时期,AI共同体内部不同群体以及哲学社会科学界对“强 AI”分别持何种态度? (2)不同争论群体在“强 AI”这一议题上是否以及如何对话与互动;

(3)“强 AI议题”对人工智能的发展有何作用,特别是如何影响通用人工智能与专用人工智能两种研究路径的演进。
\

一、图灵的担忧及诺伯特· 维纳与塞缪尔关于“机器智能恶与善”问题之争(1950—1956)

1950 年,图灵发表著名论文《计算机器与智能》(Computing MachineryandIntelligence),首 次提出 “机器是否可以思考”这一问题。[4]442 图灵认为,机器可以像人脑一样思维,他强调“模仿”概念,即机器可以模仿人脑从而实现人脑的某些功能。图灵将人脑比拟为一台数字计算机,由存储器、执行单元和控制  器所构成,通过“编程”将目标函数输入机器,从而实现特定目标,“分析机实际上是一台万能数字计算机, 当它的存储能力和速度达到一种程度,人类就可能通过适当的程序使它模仿我们讨论的机器。”[4]433-460 机器“思考”的限度是什么? 或是说图灵眼中的机器是否具有强 AI属性? 他认为,“机器可以成为它自己的主题,机器可以通过观察自己的行为的结果,修改自己的程序,以便有效地达到某种目的”,图灵眼中的机 器智能不具有诸如道德、伦理、主体感受、意向性等精神或意识要素,它是逻辑的、计算的、线性的,但图灵 认为未来的机器智能将具有学习、进化、改进自我等功能,这种属性是强 AI的重要特征之一。

图灵的理论促使人们去研究如何使机器模仿人类思维方式,如“游戏 AI”、定理证明等。1951 年,斯特雷奇(ChristopherStrachey)编写出一个跳棋程序,而普林茨(DietrichPrinz)则发展出国际橡棋程序; 1955 年,纽厄尔(AllenNewell)和西蒙(HerbertA.Simon)开发的“逻辑理论家”(LogicTheorist)证明了《数学原理》(PrincipiaMathematica)中38 个定理,且发现了一些新的、更好的证明方式,[5]123-125 西蒙认为这一程序“解决了古老的精神/身体问题,解释了一个由物质构成的系统如何拥有思想特质。”[6]17

游戏 AI战胜人类棋手事件,引发了一些学者对“机器是否会控制人类”的担忧,其中之一便是维纳(NorbertWiener)。实际上,维纳在其1950 年的《人有人的用处:控制论与社会》(TheHumanUseof Hu- manBeing)一书中,便基于熵、反馈控制理论,对有机体与机器之间的相似性进行了论证,认为生命体甚至其思维都可以最终被机械化。维纳的担忧很快变成现实。1952 年,塞缪尔(ArthurSamuel)构建了一个被认为是能够学习的跳棋程序,1956 年2 月24 日这一跳棋程序打败了康涅狄格州的西洋跳棋冠军,而 1959 年,塞缪尔在与自己所设计的跳棋游戏 AI的对弈中被击败。

维纳对此表示深切忧虑,他 于 1960 年发表 《自动 化的某些道德和技术的后果》(SomeMoraland TechnicalConsequencesofAutomation)一文,认为智能机器迟早超过并危害人类。其理由是:(1)机器可能会跳出此前的训练模式,摆脱设计者的控制,“它们无疑是有创造力的… … 不仅表现在下棋程序所具有的不可预见的战术上,同时还表现在战略评估的详细加权上”;[7](2)下棋游戏可以将其能力延伸到其他领域(如核领域),实现智能的跨领域迁移并带来未知风险,“这些具有学习能力的机器可以用于编码新型按钮战争中的按钮动作…… 一个拥有足够的经验可进行适当编程的机器,可能使人类早已经被消灭了”;[8]

(3)人类行动缓慢,难以做出及时有效的回应。但塞缪尔并不认同维纳的观点,他认为机器不具备独立思想,下棋程序所谓的“意图”或“结论”,只不过是程序设计者本人意图的反映。塞缪尔专门在《科学》杂志撰文“自动化的某些道德和技术的后果———一种反驳”(SomeMoraland TechnicalConsequencesof Auto- mation———ARefutation),强调“维纳的一些结论我并不认同,他似乎认为机器能够拥有原创性,是人类的一个威胁”,但“机器不是妖魔,它不是用魔术操作,也没有意志,而且与维纳的说法相反,除了少见的功能失常情况外,它不能输出任何未经输入的东西。”[9]

二、强 AI乐观主义与悲观主义之争(第一个人工智能黄金时代,1956—1974)

1956 年,达特茅斯会议(DartmouthConference)召开,人工智能研究逐渐建制化,且发展速度“令人惊奇”。[6]1820 世纪50、60 年代,MIT(1959)、斯坦福大学(1963)、卡内基梅隆大学等均建立了人工智能实验室。

在人工智能发展的第一个黄金期(1956—1974 年左右),人工智能界对“AI达到或超过人类智能”这一问题持乐观态度。如,1957 年赫伯特· 西蒙在一篇论述中写道:“我可以作出的最简单的结论是,当前世界上拥有可以思考、学习、创造的机器。而且,它们能力的增长非常迅速,在可见的未来,它们解决问题的能力将与人类思维共延”;[10]1970 年,明斯基(Marvin Minsky)在《生活》(Life)杂志谈到,“在三到八年的时间内,我们可以拥有其智能等同于普通人的机器。”[5]272-274在乐观主义者看来,人脑的一切活动(如推理、情感、决策等)均可以形式化为符号、还原成一系列的数字或代码,并通过逻辑程序的创建来复现人类大脑的所有思维活动。计算机科学家道格拉斯· 霍夫施塔特 (DouglasHofstadter)在《哥德尔、埃舍尔和巴赫:不朽的金发辫》(1979)一书中便强调一切实在性都能转变为形式系统,虽然神经活动与纯粹的数学有着巨大的差异性,但是诸如美、意义、感觉、情感依然存在着进行形式化表示的可能,“没有什么理由使 人相信,一台计算中运转得完美无缺的硬件不可能支持那引起体现诸如混乱、遗忘以及美感这类复杂事件的高层符号行为。”[11]

这一时期,哲学界开始登场,他们是作为强 AI反对派而出现的,如鲁卡斯(JohnLucas )、德雷福斯
(H.Dreyfus)等,他们反对 AI乐观派所认为的“所有人类活动均可以符号化、形式化”观点。如鲁卡斯在 1961 年的《心灵、机器和哥德尔》(Minds,MachinesandGdel)一书中,强调人类心灵无法进行形式化还原,机器由各个独立的部分构成,它不具有整体的、非机械性累加的特质,“一个机器可以被设计成它可以 表面上‘谈’及它‘意识’到自己的行动,但是如果它不变成不同的机器,它便无法真正拥有这种‘考虑’… 一个有意识的思想可以反思自身,并且批评自己的表现,且这种活动不需要增加额外的部分:它已经是一个完整的、因此不存在阿喀琉斯之踵的物体。”[12]

德雷福斯则利用现象学对人工智能乐观派进行攻击。1972 年,德雷福斯在其出版的《什么是计算机不能够做的:人工智能的极限》(WhatComputersCan’tDo:theLimitsof ArtificialIntelligence)中强调:并不是所有的问题都可以进行形式化,经验、直觉、意义等均无法通过形式规则来加以描述;且,意义、情  感等是在生活实践中产生的,大脑功能并非完全由其生理机能所决定,孤立地模拟大脑机制而不把它放 到与外界相联系的环境之中,是无法产生思想的,“如果人工智能研究者的理性概念是对事实的演算,如果当他确认哪些事实相关而且有意义时,不是根据事先的给定,而是由上下文环境来决定的,那么他要造出智能行为的企图就会引起论证上的矛盾”;[13]另外,用计算机通过算法来解决的问题,其复杂度必须在一定范围之内,而现实世界中的问题往往出现复杂性指数爆炸现象。

对于德雷福斯的批评,人工智能界进行了激烈的攻击,如西蒙在《思维机器》(Thinking Machines)一书中将德雷福斯的论点斥之为 “废 物”,明斯基认为德雷福斯 “不 理解 ‘人 工智能’,因 此也无需理会”。[14]143 当然,AI界对于德福雷斯也并非完全是批判态度,一些学者基于伦理维度来谨慎反思人工智能所可能引发的社会问题,如 ELIZA 的发明者魏泽鲍姆便认为 AI研究者对德福雷斯的完全漠视是不专业、且幼稚的。1976 年,魏泽鲍姆出版了《计算机能力与人类理性》(ComputerPowerand HumanRea- son),强调对人工智能的滥用会降低人类的生活价值,“最终必须在人的智能和机器智能之间划出一条界限。…… 人把自主权交给了一个机器世界;这种普遍的意义可是值得深入考虑了。”[15]

虽然遭到哲学社会科学界的批评,但是在这一时期,“强 AI”成为 AI界的主导性理念,并向政府界的资助者做出了许多“浮夸性承诺”,并得到政府的大力支持。如19 世纪60 年代中期,麦卡锡曾告诉美国国防高级研究计划局(当时称 ARPA):在未来10 年里,他们就可以打造出“全智能机器”,“我们最终的目标是创造能够像人类一样高效地从经验中学习的程序。”[16]114 基于冷战需求,加之 AI界的鼓吹,政府部门特别是美国国防高级研究计划局将大量的资金注入这一领域,如1963 年该机构投入200 万美元资助 MIT“AI智能小组”的 MAC 项目(theProjecton MathematicsandComputation),直到1970 年代,美国国防高级研究计划局每年都会向 MIT 投入 300 万美元用于人工智能研究;[14]64-65 另外,美国国防高级研究计划局也资助西蒙在卡耐基梅隆大学以及麦卡锡在斯坦福大学的人工智能项目等。在“强 AI”理念的推动下,人工智能在各个领域如数学及几何解题、机器翻译、自然语言处理、语音及视觉识别、智能机器人等均 取得进展,人工智能界希望人工智能能够拥有类似人脑的越来越多的功能、不断打破人脑与人工智能之间的限界,如1959 年纽厄尔和西蒙发展出“通用问题求解器”(GeneralProblem Solver),可以处理一些普遍的数学问题;1966 年,魏泽鲍姆(Joseph Weizenbaum)发明 ELIZA,这是人类历史上第一个具备可使用特征的自然语言对话程序;1972 年,维诺格拉德(T.Winograd)在 MIT 建立了一个可用自然语言指挥动作的机器人系统SHRDLU,它可以用普通的英语句子进行交流,并执行相关的操作。

三、“智能增强”理念对“强 AI”的冲击(第一个人工智能冬天,1974—1980)

1974—1980 年初,人工智能进入第一个“寒冬期”(AIWinter)。AI冬天主要有两个标志,一个是美国 “自动语言处理咨询委员会”(AutomaticLanguageProcessingAdvisoryCommittee)于1966 年发布的“AL- PAC 报告”(语言和机器:翻译中的计算机和语言学),另一个是英国赖特希尔(JamesLighthill)爵士在英国议会授意下于1973 年所发布的“LighthillReport”。“Lighthill的[1973]年的报告使得英国学术界所建立的 AI的信心遭受巨大的打击(当然在程度上小于美国),它持续了十年———这就是所谓的‘AI冬天’。” 1973 年,这一报告在英国 BBC“Controversy”系列节目中引发了广泛争论,当时参与争论的英国皇家学会研究人员认为“通用型机器人不过是海市蜃楼”。[14]22 报告最终使英国政府终结了英国绝大多数大学中的 AI研究,JamesHendler写道:“这形成了一种冲击波效应,并导致 AI研究经费在整个欧洲范围内的削减”,[17]直到1983 年,英国政府才通过 Alvey项目资助 AI研究。

在这种情况下,AI界开始出现分裂。虽然麦卡锡等依然对强 AI抱有信心,如他认为强 AI依然可以很快实现,只需要“1.8 个爱因斯坦,以及曼哈顿计划所需资源的1/10。”[16]116-117 但是另外一些 AI研究者则对这样的宏大纲领表现出怀疑及失望情绪,并由此出现了 AI(约翰· 麦卡锡为代表)与IA(增强人类智能,以“鼠标之父”道格拉斯· 恩格尔巴特为代表)两个研究纲领之间的对立,前者(AI)强调发展能够替代人类、整体上超过人类的 AI系统,而后者(IA)则强调人机交互,认为机器只是人类的辅助。

斯坦福研究所的恩格尔巴特(DouglasC.Engelbart)早在1962 年就发表了名为“放大人类智力:一个概念框架”(Augmentingthe HumanIntellect:AConceptualFramework)的论文,强调计算机是人类智力 “放大器”,人工智能所要研究的是那些能够改善人机交互方式的 AI,“在我们看来,我们无需等到完全了解了人类心智过程机理,我们无需等到学会设计出更智能、更强、更快的计算机,我们现在便可以在已拥有的知识的基础上,开始设计更强大、更具经济可行性的智能增强系统。”[18]在智能增强理论看来,人工智能并非是要取代人类,而是要以人类用户为核心进行设计,“在过去的50 年,AI和IA 两大阵营间潜在紧张关系一直围绕在计算机科学的心脏地带,而这一领域已经创造了一系列正在改变着世界的强大技术…… 人们很容易认为,AI和IA 是同一枚硬币的正反两面,两者的根本区别在于,是设计造福于人类的技术,还是将技术作为目标本身。如今,这种差异的体现是,制造越来越强大的计算机、软件和机器人的目的是以人类用户为核心进行设计,还是替代人类。”[18]115 恩格尔巴特自身便是智能增强、人机交互理念的实践者,他于1963 年发明了最初的鼠标,用它来代替繁琐的指令,从而使计算机操作更为简便。1960 年代初,恩格巴尔特在斯坦福国际研究院(SRIInternational)成立了“增强研究中心”(AugmentationResearch Center),并与同事安德鲁斯(DonAndrews)、英格利希(BillEnglish)、鲁里夫森(JeffRulifson)等一道,开发了超文本系统、网络计算机、图形用户界面等技术,这些发明仅仅是为了简化人机交互过程。[19]

在恩格巴尔特等人的影响下,一部分 AI研究者开始由过去的“强人工智能”转向 “智能增强”阵营。如,20 世纪70 年代施乐公司的艾伦· 凯(AlanKay),他曾在斯坦福大学人工智能实验室工作过一年,但他没有像麦卡锡一样追求一种匹敌或取代人类的 AI,而是创造了个人电脑概念。此外,比尔· 杜瓦尔(BillDuvall)、拉里· 泰斯勒(LarryTesler)、杰瑞· 卡普兰(JerryKaplan)等人工智能专家,也逐渐转向智能增强研究,发展出简洁的桌面操作系统、平板电脑等。

由于强 AI理念在发展过程中面临着诸如语义问题、常识难题(如莫拉维克悖论)等,这些问题不仅仅涉及技术层面,还关涉哲学,如语言的本质、逻辑与情境的关系等。因此,在这一时期,人工智能界开始与哲学社会科学界有了互动。在互动过程中,AI界也逐渐认识到当时的主导性研究路径———逻辑符号主义的局限性,这使一部分 AI界人士逐渐抛弃“强 AI”理念,如威诺格拉德(Terry Allen Winograd)等。1970年,威诺格拉德完成了SHRDLU 智能机器人系统(这一系统能够“理解”对话者的语言、并能够基于自然语言命令做出相应的动作),他曾经认为这种具有“理解”自然语言能力的 AI,只要经过“升级”或积累大量的常识和规则,便可以像人类一样处理多样化的、复杂的日常事务。但是,当时威诺格拉德经常参加加 州大学伯克利分校由德雷福斯主导的小组讨论,并与那里的哲学家如塞尔等进行非正式午餐讨论,“哲学 家们穿过伯克利的街道聚在一起。来自施乐 PARC 的威诺格拉德和丹尼· 博布罗已经成为这些午餐讨论的常客。威诺格拉德发现,他们改变了自己对人工智能哲学基础的偏见… … 他最终放弃了对人工智能的‘信仰’”,[16]179 选择了“恩格尔马特式”的智能增强路径,将关注点转移到“如何强化人机互动技术”问题。威诺格拉德还与哲学家费尔南多· 弗洛雷斯(FernandoFlores)合作完成《理解计算机和认知:设计新基础》(UnderstandingComputersandCognition:aNew FoundationforDesign)一书,对当时的人工智能乐观派进行了批判。

四、AI界对强 AI理念的“集体叛逃”及哲学社会科学界对强 AI理念的持续批判(1980 年代初—1990 年代初)

20 世纪 80 年代初,以专家 系统的成功商业化为标志,AI迎 来了自己的第二个黄金期 (1980—1987)。① 1970 年代后期,由于 AI界没有为军事部门提供可用的新技术,使得美国国防高级研究计划局的资助大量缩减,AI研究举步维艰。这时 AI研究者不得不转向企业界寻求资助,或是建立独立的 AI公司推进人工智能研究。这一时期,“专家系统”研究开始兴起,并于80 年代中期形成了一个约10 亿美元的产业,涌现出了 CarnegieGroup(1983)、IntelliCorp(1980)、Teknowledge(1981)、Inference(1979)等知名专家系统公司,产品广泛应用于工业制造、医疗、航空等领域。20 世纪80 年代末,世界500 强企业中有一半在应用和发展专家系统,当时 AI重镇如 MIT、斯坦福大学、卡内基-梅隆大学等均开展了专家系统相关研究。

专家系统的目标是为了解决应用问题,它将特定领域中的专业知识和经验符号化为知识库,建构相 应的问题匹配规则,通过问答方式来解决用户的专业问题。专家系统虽然实现了特定领域  AI对普通人(甚至专家)的超越,且一定程度上在知识拥有量、分析精准度及效率等方面实现了对人类专家的超越,但专家系统从一开始便是“应用型 AI”而非“强 AI”,其目的是辅助人类决策,而不是实现对人类思维能力的综合性超越。专家系统的兴起,表明 AI界逐渐放弃“强 AI”观念,聚焦于“在特定领域中的可用性”这一较低目标,其技术文化基础是“辅助人类”及“获得商业层面的成功”,意味着 “应用型 AI”派相对于“强AI”派的胜利,代表着 AI界对传统麦卡锡式“强 AI”理念的一种集体“叛逃”。

然而,即使是“应用型 AI”,其黄金期也没有持续太久,很快便进入“第二次寒冬”。“总的来说,AI业的繁荣,从1980 年几百万美元,到1988 年的数十亿美元。然后不久,便进了一个被称为 AI冬天的时期”,[6]24 它被认为是过于昂贵、无法“自主学习”、维护成本高、不具备通用性等。1987 年,美国信息技术处理办公室(InformationProcessingTechnologyOffice)主管史瓦兹(JackSchwarz)将专家系统讽刺为“聪明的编程”,并“全面、残酷地”地砍掉了 AI资助,强烈认为 AI不是“下一波”。此后,AI逐渐被个人电脑所终结。人们不再期望计算机有多“聪明”、或是多么具有强 AI性质,相反,人们关注的是如何使人机交互更为便捷、生动,如何降低计算机使用成本,人们对于“实用性”的追求代替了对机器“智能性”的追求。

在这一时期,即使是 AI界的乐观派,也开始承认“强 AI只是一种信念或信仰”,不具备现实可行性。如迈克· 詹姆斯(MikeJames)强调“目前关于智能的问题,还仅仅是一个信仰问题:相信人工智能研究的稳步前进将会最终造成智能机。”[20]此外,在这一时期,也有一些强 AI乐观派人士认为,虽然强人工智能将来会实现,但需要等待计算性能的提升。如汉斯-莫拉维克谈道:“我相信,有一天人工智能的自下而上 的研究路线,会与传统的自上而下的路线半途相遇,从而获得真实世界中的能力,以及对于推理程序来说  极其困难的常识知识库。 这两种方向结合在一起的时刻,会成为产生真 正智能机器的所谓 ‘金 钉子’。”[21]

在 AI界逐渐放弃强 AI理念时,哲学界则基于语义学对强 AI理念进行了更为彻底、更为致命的批判。1980 年初,哲学家约翰· 塞尔提出了“中文屋”思想实验,从语义学的角度说明了“机器根本不可能具有意识”,强调“图灵测试”无法作为判别“机器智能与人类智能是否等同”的标准。塞尔指出,人工智能不过是基于一系列语法规则进行符号处理的转换机,它无法像生物大脑一样进行语义解释,不能理解这 些符号背后的意义,“计算机程序永不可能代替人心,其理由很简单:计算机程序只是语法的,而心不仅仅是语法的。心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”[22]塞尔的观点激怒了人工智能界,塞尔最初的关于“意向性”的文章引发了30 篇反驳论文,在 AI界看来,如果对“意义”进行最终溯源,其终极原因只能归之于宗教和神学,这是毫无意义的。

五、“奇点”议题的兴起(1990 年代中期—2000 年代中期)

到了1990 年代,人工智能研究者背上了无法实现自己承诺的坏名声,他们拒绝再作出任何预言,AI界的大数研究人员避免提到任何“人类水平”的人工智能,以免被贴上“白日梦”的标签。麦卡锡曾这样描述:“对于 AI共同体的其他科学家来说,如果新的一般形式主义(inventorsofnewgeneralformalisms)的发明者能够以更加谨慎的方式来表达他们的希望,那么其他科学家便会感觉到一种极大的解脱。”[23]这种现象一直持续到2000 年代中后期,马科夫(John Markoff)在2005 年的“New YorkTimes”杂志上谈道: “在(AI)低谷时,许多计算机科学家和软件工程师避免使用 AI这一术语,害怕被人们视为是狂热的梦想家。”[24]

但是,强 AI观念并没有消失,在哲学界、传媒界以及一些科学家,强 AI理念却逐渐以“奇点”这一新概念形式而重新复兴了。1993 年,文奇在一次美国国家航空航天局路易斯研究中心举办的研讨会上提交了文章“即将到来的奇点”(TheComing TechnologicalSingularity),强调技术的加速进步是当时代的主要特征,在未来,一种远超人类智慧的机器物种将会产生:某种先进的电脑会“苏醒”并超越人类智能, 大型计算机网络及相关用户也可能会“苏醒”并成为超人类实体,“我认为超越人类的智慧体将会在未来的30 年内产生”,“我们可以将此事件称为奇点。奇点意味着旧的方法被抛弃、新的规则实体产生,奇点意味着它会以较为隐晦的方式越来越大地影响人类事务,直到这一观念成为一种常识。”[25]文奇的预言似乎很快变成了现实,1997 年“深蓝”战胜了世界国际象棋冠军卡斯帕罗夫,在比赛之前,美国《新闻周刊》将此次对弈描述为“人脑的最后防线”(Thebrain’slaststand)。卡斯帕罗夫甚至认为“深蓝”经常表现出“非常拟人的危险”(showingaveryhumansenseofdanger),“有时候‘深蓝’就像神一样来掌控棋局”或是某种更高级的智能,[26]他甚至认为有特级大师躲在“深蓝”背后帮它挑选最佳着法。

文奇的“奇点”理论提出后,并没有立即获得人们的广泛认同,只是得到一部分人的支持,如库兹韦尔。库兹韦尔于1990 年出版《智能机器时代》(TheAgeofIntelligentMachines)一书,认为随着计算机性能的不断提升,未来经过足够多的时间,人类将会创造比他自身更聪明的实体[27]。库兹威尔的推断是基于计算能力的指数级增长及技术的加速循环规则。

(1)计算能力的指数增长。“奇点”理念是基于计算能力万能论的,许多持“奇点”观念的学者将人类的智能还原为计算能力,并强调随着计算能力的提升,人工智能最终将超越人脑。而20 世纪90 年代以来,摩尔定律不断得以证实,AI界所面临的“原始的计算能力”问题正在逐步被克服,摩尔定律下计算能力的指数级增长状态,展示了 AI不断接近人脑的潜力。① “深蓝”发展史完整地展现了计算能力的指数增长、使机器智能不断增强并战胜人类的图景:①1985 年,ChipTest(深蓝前身)每秒计算5 万步;②1988年,ChipTest升级为“深思”,每秒计算500000 个局面,击败丹麦特级大师拉尔森;③1989 年,“深思”每秒计算200 万步,但0:2 输给了当时的世界冠军卡斯帕罗夫;④1990 年,“深思2.0”问世,在与前世界冠军卡尔波夫对局中非输即和;⑤1996 年,“深思”改进为“深蓝”,每秒可以处理1 亿个局面,但在与卡斯帕罗夫对弈以2:4 失利;⑥1997 年,“深蓝2.0”以 3.5:2.5 击败了卡斯帕罗夫,每秒可分析2 亿个棋步。

(2)技术的加速循环。1999 年的《心灵机器时代》(TheAgeofSpiritualMachines)一书,库兹威尔首次提出“加速循环规则”(TheLawofAcceleratingReturns):各种形式进化系统的变化率呈现出指数增长态势,人类正处于技术加速变化的浪尖上。在2001 年一篇文章中,[28]库兹威尔对这一规则进行了更加详细的解释:一是技术进化呈现正反馈模式,进化过程的一个阶段用以创造下一个阶段;二是在另一个正反馈回路中,当一个特定的进化过程(如计算)变得更有效时,便会有更多的资源布署到这一领域,并导致 第二个水平的指数增长;三是一个特定的技术范式潜力耗尽会发生范式转移,使指数增长继续。库兹威尔预测说,未来几年里随着可负担得起的计算工具的发展,将实现人类智力水平机器的创造,[29]“技术点正在临近”,“这一进程最终变得如此之快,以至于它会使我们难以跟上其发展步伐,它最终会摆脱我们的控制。”[30]

虽然一些科学家并不认为“奇点”的存在,如 MIT 的诺姆· 乔姆斯基认为,我们离建立人类水平的机器智能还“遥不可及”,称奇点是”科幻小说”。但是,“奇点”概念还是获得了硅谷一些科技企业家的关注, 如谷歌的拉里· 佩奇(LarryPage)和谢尔盖· 布林(SergeyBrin)、支付宝联合创始人彼得· 泰尔(Peter- Thiel),他们的参与推动了社会各界对“奇点”的关注。2000 年,尤德考斯基(EliezerYudkowsky)等创建了 “奇点研究所”,是目前唯一致力于研究强 AI及其风险的研究组织。

应该说,在这一时期,“强 AI”观念在 AI界几乎被抛弃,为了继续推动类似研究,AI界往往为他们的工作贴上其他标签,如信息学(informatics)、机器学习(machinelearning)、知识系统(knowledge-basedsys- tems)等,实际上,这是一种基于“应用式 AI”理念的发展路径。在“应用式 AI”理念的“掩护”下,AI研究取得了许多成功,他们所提供的解决方案在技术工业领域被证明是有效的,如数据挖掘、工业机器人、物流、语音识别、银行软件、医疗诊断、搜索引擎(如谷歌)。但是,AI界却没有为这些成功而获得太多荣誉,因为在这一时期,AI的成功更多的源自于计算能力的提升,许多 AI的重大创新仅仅被降低为工具箱,许 多  AI领域的前沿技术已经渗透到普遍的应用过程之中,它们常常没有被冠以人工智能这一名号,因为一旦有些应用变得足够有用且足够普遍,它便不再被贴上 AI标签。

六、“强 AI风险论”成为社会焦点之一(2010 年左右至今)

进入2010 年以后,人工智 能技术获得了更为迅速的突破,如IBM 的 Watson 战胜 Jeopardy 冠军(2011)、聊天程序“尤金· 古斯特曼”(EugeneGoostman)首次“通过”了图灵测试(2014);2016 年,谷歌的围棋程序 AlphaGo 击败了围棋世界冠军李世石,2017 年 10 月 AlphaGoZero 以 100:0 的战绩击败了 AlphaGo;2014 年,包括百度、腾讯、谷歌的人脸识别系统均已超过人类。

人工智能最近几年所取得的巨大突破,使得人们愈发关注强 AI议题,并形成了一股强 AI争论热潮。在这次争论热潮中,人们不再仅仅关注“人工智能能否超越人类”,而是更多地将“强 AI”与“风险”概念结合在一起,基于风险语境来反思“强 AI是否会导致机器对人类的控制”、“强 AI是否会成为一种影响人类生存与发展的危险要素”等问题。如2014 年,霍金(Stephen Hawking)在观看了《超验骇客》后,在《独立》杂志中谈道:成功制造出一台人工智能机器人将是人类历史上的里程碑,但不幸的是,它也可能会成为我们历史上最后的一个里程碑。[31]在麻省理工学院航空航天系2014 百年纪念座谈会上,伊隆· 马斯克表示,“随着人工智能发展,我们正在召唤恶魔。”DeepMind 联合创始人及研究总监莱格(ShaneLegg)也强调,AI“将会是本世纪的第一风险”。[32]未来生活研究所研究人员阿姆斯特朗(StuartArmstrong)认为,如果 AI变坏,那么95% 的人类将会被杀死,而剩下的5% 也会很快被灭绝。[33]在这一时期,关于强 AI风险的讨论出现了以下新特点。

(1)大量关于 AI控制、威胁人类的书籍、论文出现。如穆豪瑟尔(Luke Muehlhauser)的《面对智能爆炸》(2013)、波斯特罗姆的《超级智能:路径、方法及策略》(2014)、亚姆波尔基(RomanYampolskiy)的《人工超级智能:一个未来学研究路径》(2015)等。哲学家波斯特罗姆对未来强 AI夺权的场景进行了详细分析:① 前临界阶段:产生种子人工智能(seedAI),其发展初期需要人类程序员引导其发展以及完成多数繁重的工作;② 递归性自我改良阶段:在某个时间点,种子人工智能会变得比人类程序员更擅长设计人工智能;③ 秘密准备阶段:种子 AI策划出一套为了实现其长期目标的稳健计划;④ 公开实施阶段:通过各种手段(如控制银行,说服或威胁政府等)来控制社会资源,以服务于 AI自身的目标。

(2)对强 AI风险的讨论进入组织化阶段,大量 AI风险研究组织建立。2012 年成立的剑桥大学生存风险研究中心(CentrefortheStudyofExistentialRisk),主要研究能够导致人类灭绝的风险,特别是人工智能所可能导致的未来风险场景;2014 年成立的未来生活研究所(FutureofLifeInstitute),主要集中于如何使 AI技术以有益于人类的方式发展这一问题;2015 年成立的负责任机器人基金会(FoundationforRe- sponsibleRobots,FRR),是唯一的致力于负责任机器人研究的基金会;2016 年成立的 Leverhulme 智能未来研究中心(TheLeverhulmeCentrefortheFutureofIntelligence),则是确保人类能够在未来能够最大程度地利用人工智能技术。

(3)不再拘泥于从理念层面来讨论 AI是否会超越人类,而是从实践角度来分析如何治理 AI风险。如:① 企业家资助 AI风险研究。马斯克在2015 年1 月及7 月分别向“未来生命研究所”投资1000 万、 700 万美元,用于支持人工智能负面效应研究项目;② 面向全社会发布 AI风险及伦理公开信。未来生活研究所于2015 年1 月的“优先发展稳健且有益的 AI:一封公开信”,强调应避免 AI威胁到人类生存;③企业建立 AI伦理委员会,确保 AI发展能够符合人类道德。如2017 年10 月3 日,DeepMind宣布成立人工智能伦理与社会部门(DeepMindEthics& Society);微软于2018 年1 月成立 AI伦理委员会 AETHER,避免企业滥用或过度发展 AI。此外,2016 年9 月,Google、Facebook、Amazon、IBM、Microsoft等企业联合起来形成 AI联盟,命名为“有益于人类和社会的 AI联盟”(PartnershiponArtificialIntelligencetoBenefit PeopleandSociety),强调确保 AI尽可能地有益于人类、形成最佳的人工智能实践;④ 公众参与。如剑桥大学生存风险研究中心于2015 年6 月19 日举办公开演讲活动“人类水平的人工智能:是隐现还是海市蜃楼?”⑤ 非政府组织运动。如2013 年4 月成立的“杀手机器人禁令运动”。

(4)虽然隔阂尤在,但是哲学社会科学界、科学界(如物理学家等)、AI界开始进行较为广泛的对话,共同参与到强 AI风险相关讨论及风险治理活动之中。在这一时期,虽然哲学社会科学界、AI界、科学界就“强  AI是否会实现”、“如何使人类与机器之间形成良性互动关系”等问题存在不同意见,但一个明显的趋势是,不同的利益相关者(特别是哲学社会科学界与 AI界)不再固步自封、相互攻讦,而是尝试性地进行互动。如2015 年1 月11 日,未来生活研究所发布“一封关于使 AI的社会效益最大化的公开信”(An openletteronmaximizingthesocietalbenefitsof AI),其中目的是如何使 AI研究能够更好地服务人类福祉。截止到2016 年10 月11 日,已有8749 个人在这封公开信上签字,在前110 名签名者中,约70% 是计 算机科学家和 AI专家,16% 为哲学家、未来学家、伦理学家,9% 为物理学家、生物学家等非 AI界研究者;而在一些 AI风险研究组织中,哲学社会科学家、AI界人士、其他科学家也往往都参与其中。如未来生活研究所 AI研究分支创立者包括:Skype联合创始人JaanTallinn,MIT 物理学教授 MaxTegmark,Deep- MindAI安全专家 ViktoriyaKrakovna,信息物理学教授 AnthonyAguirre,哲学研究人员 MeiaChita-Teg- mark,牛津大 学哲学教授 NickBostrom,MIT 物理学教授 Alan Guth,剑 桥大学理论天文学家 Stephen Hawking,艾伦脑科学研究所首席科学家 ChristofKoch,企业家 Elon Musk,IBM 人工智能专家 FrancescaRossi,加州大学伯克利分校计算机科学家 StuartRussell等。可以看出,未来生活研究所 AI研究小组成员涵盖了哲学家、AI专家、物理学家、企业家等,是一个跨学科、领域研究团队。

(5)强 AI逐渐走入“政策之屋”。首先应该说明的是,整体上讲,决策者对于强 AI的态度一般比较保守,且当前世界各国的 AI政策文本重弱 AI治理、轻强 AI调控,但许多政策及法律文本也往往涉及“强 AI”。如欧盟《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》指出:在未来,人工智能超越人类智慧是存在可能性的,强 AI应成为人类的补充而不是替代,其2016 年发布《欧盟机器人民事法律规则》,建议“一旦技术进步使得机器人自主性程度高于当前的合理性预测,那么相关的立法更新便需要适时推出”;IEEE 的《“人工智能设计的伦理准则”白皮书(第2 版)》强调,当系统接近并超过通用人工智能时,无法意料的或无意的系统行为将变得越来越危险且难以纠正;“艾斯罗马人工智能23 定律”也强调,强 AI应符合人类的整体公共利益,超级智能的开发是为了服务广泛认可的伦理观念,任何自主系统都必须允许人类中断其活动;美国所发布的《为未来人工智能做好准备》(PreparingfortheFutureofAr- tificialIntelligence)报告,则强调 AI应与人类有效合作,其行动必须与人类的价值观和愿望保持一致。

七、结论与展望

在人工智能发展史上,“强 AI”一直是一个争议不断但却又不断引发人们关注的议题,围绕“强 AI”所发的争论,是人们对不同时期 AI技术自身所内含的局限性及其潜力之间的不同聚焦,同时亦反映了科学文化、人文文化以及主流世界观等因素之间的冲突与协调过程。对于“强 AI”理念,我们应合理看待其所发的各种争论,具体来讲有以下几个方面需要加强共识。

(1)“强 AI”理念是推动人工智能界不断打破人机界限、使 AI技术向前发展的重要信念。在很长一段时间里,“强人工智能”是人工智能界的官方表征语言及追求目标,“它们试图建造用来展现一定程度的 真实心理特性的机器:问题解决、思考、理解和推理,并且最终可能是意识、感觉和情绪… … 如果你认为自己不知道有谁支持强人工智能的话,你就没有深入地看待这个问题。”[34]虽然在人工智能发展初期,一些 AI乐观主义人士向资助者、传媒界做出了许多浮夸式承诺,目标的好高骛远与承诺的无法实现最终导致 资助者的厌弃。但是,我们应该正视“强 AI”理念在人工智能发展史上(特别是在其发展初期)的作用和地位:它是一种信仰,推动 AI界不断开拓 AI学科疆域、使机器拥有更多人脑才具有的功能,开创了人工智能领域中的大多部分奠基性成果,如数学问题解决能力的 LogicTheorist(1956)、Lisp 语言(1958)、第一个自然语言对话程序 ELIZA(1965)、首个专家知识系统 Dendral(1965)、具有感知和运动能力的智能机器人Shakey(1969)、具有自然语言理解能力的 SHRDLU 机器人系统(1971)等。正如一个新的范式刚形成时需要借助信仰、说服等力量来推动其发展一样,人工智能在其初创期,强 AI理念对于扩展人工智能学科的社会影响力、获得资助、吸引人才是尤为重要的。

(2)围绕“强 AI”的争论是一种文化冲突现象,其背后所反映的是不同社会要素,特别是“两种文化”
(科学文化和人文文化)及“科技是生产力、竞争力”的主流世界观等之间的张力,且这几种文化也经历着由对立、冲突到逐渐的尝试性对话与合作这一过程。从“强 AI”的整个争论过程来看,AI界更多是在人工智能发展初期介入进来,主要讨论的是如何使人类知识符号化、形式化等科学问题,而20 世纪80 年代以后,AI界已较少介入“强 AI”议题;“强 AI”议题的参与者,自20 世纪70 年代以后主要是哲学社会科学界,他们更多的是基于批判式思维,从未来学、道德哲学等人文视角考虑强 AI的性质及其与社会的关系问题,如意识的本源是什么,机器的物理性特征与人的生物性特征区分标准,AI在未来社会治理体系中的属性及地位是什么等。这是两种文化之间的张力。这种张力在人工智能发展初期阶段至20 世纪80年代,往往是一种“紧张与对立”状态,如20 世纪70 年代哲学家德福雷斯与赫伯特· 西蒙等 AI专家之间就“AI能否达到人脑功能水平”这一问题进行了长期争论;自20 世纪80 年代以来“应用式 AI”的崛起、 “强 AI”理念的衰落,AI界逐渐脱离这一争论场,专注于 AI在特定领域中的商业化成功,“如何使 AI更好地融入市场”、“科技如何服务于生产力”等观念成为主流,所以在很长一段时期内,强 AI观念逐渐被“智能增强”观念所取代;而20 世纪末起,随着人工神经网络范式的迅速发展及大量应用,“强 AI”理念再次引发哲学人文社科界及 AI界的关注,AI界也参与到这一论争过程之中,且哲学人文社会科学界与 AI界开始出现“融合与对话”的趋势,反思“AI的伦理、风险问题”,开放治理已经成为一种潮流。“强 AI”参与者及讨论议题的变化,说明当代科学的发展需要从多视角进行反思,未来的科学治理体系需要社会科学家集团的崛起(如阿里巴巴设立“罗汉堂”),[35]当 AI以越来越快的速度、越来越广的范围形塑社会并逐渐成为一种非可控体时,便需要人文社会科学家的介入。

(3)一个有意思的现象是:在对待“强 AI”这一议题上,AI界、哲学界等的态度并非一成不变,而是出现了“态度转换”现象。从整体上讲,AI界对于“强 AI”的态度经历了一个由乐观与支持到悲观与放弃,以及现在的谨慎心态这一整体转变过程。如在 AI初建期,AI界如赫伯特· 西蒙、约翰· 麦卡锡等,均对强 AI的实现非常乐观;1970 年代中后期至1980 年代,AI界对于“强 AI”开始出现质疑声音,一部分 AI界人士开始转向智能增强阵营;20 世纪90 年代至21 世纪初,AI界基本上不再触及“强 AI”议题,即使到现在,其态度依然谨慎。而哲学界对于“强 AI”的态度则是沿着由批判与质疑到现在的大力宣扬这一路径演变。从20 世纪60 年代 AI学科创立之初,到20 世纪80 年代、90 年代中期,哲学界对于“强 AI的实现”一直持质疑态度;而20 世纪90 年后期开始,哲学界则开始转变态度,更加预言强 AI能够实现,并更为担忧其所可能产生的严重后果。为何会出现“态度转换”现象? 其根本性原因在于 AI界及哲学界对 AI的关注点有所差异:当强调其未来潜力时,便对强 AI持乐观态度;当集中于 AI的局限性时,便对强 AI持怀疑及批判态度。

(4)“强 AI”概念需要进行重新界定,使其成为科学而非单纯的“科幻式”概念,并给予强 AI风险议题更多关注。传统的强 AI观念强调 AI拥有与人脑完全相同的功能(我们称之为强 AI1 ),然而,这样的“强 AI”并不具备科学层面的可行性(至少是现在),因为诸如“理解”“意志”“情感”等概念,是以生物人为前 提、基于社会实践而获得的,除非人类能够建造出一个在生物层面与人脑完全相同的机器,否则便会陷入  “中文屋困境”。在这里,我们强调一种基于“自主性”的强 AI观:即基于强大学习能力、具备“目标自主性+行动自主性”能力的 AI(我们将之称为强 AI2)。在这里需要指出的是,“自主性”并非是基于“意向性”,它意指 AI具有“目标的自我微调、改变,新目标的生成”、“自动完成已设定目标而无需外界干扰”、“可与外部环境交互并自我进化”等功能。AI2 舍弃了诸如“机器是否会具有意向性”等难以追寻或回答的终极问题,将关注点放之于当下的技术条件及未来的技术可能性。实际上,即使是当前,具备“自主性”特征的AI已经开始显露迹象,如2017 年5 月,谷歌提出自动机器学习(AutoML),允许人工智能成为另一个人的架构师,并在无需人工工程师输入的情况下进行自我创造,也即意味着 AI在“自主生成目标”方面已有了突破。近几年来,AI技术发展所呈现出的加速进步态势,使得未来具有跨领域性、完全自主性、递归式自我改良性特征的 AI的出现具有了现实可能性,这要求人们更加重视 AI社会风险问题。[36]

参考文献:

[1]SEARLEJR.Therediscoveryofthemind[M].Cambridge:MITPress,1992:201.
[2]刘益东.科技巨风险与可持续创新及发展研究导论 ——— 以致毁知识为中心的战略研究与开拓[J].未来与发展,2017(12):
4-7.
[3]蔡恒进.超级智能不可承受之重——— 暗无限及其风险规避[J].山东科技大学学报(社会科学版),2018(2):15.
[4]TURING A M.Computing machineryandintelligence[J].Mind,1950(59):433-460.
[5]MCCORDUCK P.Machineswhothink:apersonalinquiryintothehistoryandprospectsofartificialintelligence[M].Na-tick:A.K.Peters,2004.
[6]RUSSELLS,NORVIGP.Artificialintelligence:amodernapproach[M].London:PearsonEducation,2003.
[7]WIENER N.Somemoralandtechnicalconsequencesofautomation[J].Science,1960(131):1356.
[8]SAMUEL A.Somemoralandtechnicalconsequencesofautomation—arefutation[J].Science,1960(132):741-742.
[9]史南飞.对人工智能的道德忧思[J].求索,2000(6):69.
[10]HUBERT D.Alchemyandartificialintelligence[M].Santa Monica:RANDCorporation,1965:3-10.
[11]侯世达.哥德尔、艾舍尔、巴赫:集异壁之大成[M].郭维德,译.北京:商务印书馆,1997:75.
[12]LUCASJR.Minds,machinesandgdel[J].Philosophy,1961(XXVI):112-127.
[13]休伯特.德雷福斯.计算机不能做什么:人工智能的极限[M].宁青岩,译.北京:生活· 读书· 新知三联书店,1986:230.
[14]CREVIER D.AI:thetumultuoushistoryofthesearchforartificialintelligence[M].New York:BasicBooks,1993.
[15]WEIZENBAUMJ.Computerpowerandhumanreason[M].New York:W H Freeman & Co,1976:8-10.
[16]约翰· 马尔科夫.与机器人共舞[M].郭雪,译.杭州:浙江人民出版社,2015.
[17]MCCARTHYJ.ReviewoftheLighthillreport(1993)[EB/OL].[2018-07-11].http://www-formal.stanford.edu/jmc/re- views/lighthill/lighthill.html.
[18]ENGELBART D.Augmenting humanintellect:aconceptualframework.SRIsummaryreport[EB/OL].1962,https://
web.stanford.edu/dept/SUL/library/extra4/sloan/mousesite/EngelbartPapers/B5_F18_ConceptFrameworkInd.html.
[19]ENGLEBART D.Theaugmentedknowledgeworkshop[C].ProceedingsoftheACMconferenceonthehistoryofpersonal workstations.1986,http://www.dougengelbart.org/pubs/augment-101931.html#Pub-63-Frame.
[20]JAMES M.Artificialintelligenceinbasic[M].London:Butterworths & Co,1984:120.
[21]MORAVEC H.Mindchildren[M].Cambridge:HarvardUniversityPress,1988:20.
[22]约翰· 塞尔.心、脑和科学[M].杨音莱,译.上海:上海译文出版社,1991:23.
[23]MCCARTHYJ.Formalizingcommonsense:papersbyJohn McCarthy[M].New York:Ablex Publishing Corporation,
1990:69.
[24]MARKOFFJ.Behindartificialintelligence,asquadronofbrightrealpeople[N].TheNew YorkTimes,2005-10-14(A10).
[25]VINGE V.Thecomingtechnologicalsingularity(1993)[EB/OL].[2018-02-11].book98/com.ch1/vinge.singularity.html.
[26]LEVYS.WhatDeepBluetellsusaboutAIin2017[EB/OL].Wired,2017-05-23.
[27]KURZWEIL R.Theageofintelligentmachines[M].Cambridge:MITPress,1990:21.
[28]TEUSCHERC.AlanTuring:lifeandlegacyofagreatthinker[M].Berlin:Springer,2010:381-416.
[29]KURZWEIL R.Theageofspiritualmachines:whencomputersexceedhumanintelligence[M].NY:PenguinBooks,1999:33-35.
[30]KURZWEIL R.Thelawofacceleratingreturns(2001)[EB/OL].[2017-11-02].
[31]GRIFFIN A.StephenHawking:artificialintelligencecouldwipeouthumanitywhenitgetstoocleverashumanswillbelike ants[EB/OL].Independent,2015-10--08.
[32]SHEADS.ThebiggestmysteryinAIrightnowistheethicsboardthatGooglesetupafterbuyingDeepMind [EB/OL]. Businessinsider,2016-03-26.
[33]BRYANT M.Artificialintelligencecouldkillusall,meetthemanwhotakesthatriskseriously[EB/OL].Insider,2014-03-08.
[34]PRESTONJ,BISHOP M.ViewsintotheChineseroom:essaysonSearleandartificialintelligence[M].Oxford,UK:Claren- donPress,2002:14-14.
[35]刘益东.智业革命:致毁知识不可逆增长逼迫下的科技转型产业转型与社会转型[M].北京:当代中国出版社,2007:
202-206.
[36]王彦雨.学界关于“超级 AI”的论争及其实现的可能路径[J].未来与发展,2017(08):30.

《基于历史视角分析的强人工智能论争论文》附论文PDF版下载:
http://www.lunwensci.com/uploadfile/2019/0109/20190109034026829.pdf
 
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/zhexuelunwen/2746.html

相关内容

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml