人工智能史(综述)

                     

贡献者: 待更新

   本文根据 CC-BY-SA 协议转载翻译自维基百科相关文章

   人工智能(AI)的历史可以追溯到古代,那个时候有关于由工匠们赋予智慧或意识的人工生命体的神话、故事和传闻。从古代到现代,逻辑学和形式推理的研究直接促成了 1940 年代可编程数字计算机的发明,这是一种基于抽象数学推理的机器。这个设备及其背后的理念启发了科学家们开始讨论构建电子大脑的可能性。

   人工智能研究领域是在 1956 年于达特茅斯学院举行的一次研讨会上创立的。[1] 参加该研讨会的人成为了人工智能研究的领导者,并且在几十年里引领着这一领域的发展。许多人预测,在一代人之内,像人类一样智能的机器将会问世。美国政府也提供了数百万美元,希望能够将这一愿景变为现实。[2]

   最终,研究人员明显低估了这一壮举的难度。[3] 1974 年,詹姆斯·莱特希尔的批评以及美国国会的压力导致美国和英国政府停止资助无目标的人工智能研究。七年后,日本政府的远见性倡议和专家系统的成功重新激发了对人工智能的投资,到了 1980 年代末,人工智能产业已经成长为一个价值十亿美元的行业。然而,到了 1990 年代,投资者的热情减退,人工智能在媒体中受到批评,行业也开始回避这一领域(这一时期被称为 “人工智能寒冬”)。尽管如此,研究和资金在其他名称下依然持续增长。

   进入 2000 年代,机器学习被应用于学术和工业中的广泛问题。这一成功归功于强大计算机硬件的可用性、大规模数据集的收集以及扎实的数学方法的应用。很快,深度学习证明是一项突破性的技术,超越了所有其他方法。2017 年,变换器架构的首次亮相带来了令人印象深刻的生成型人工智能应用,及其他多个应用场景。到 2020 年代,人工智能的投资呈现爆发式增长。

1. 前驱

神话、小说和推测性的前驱

   神话与传说

   在希腊神话中,塔罗斯(Talos)是一个由青铜铸成的巨人,担任克里特岛的守护者。他会向入侵者的船只投掷大石块,并每天绕岛的周围完成三次巡逻。[4] 根据伪阿波罗多罗斯的《博物志》(Bibliotheke),赫淮斯托斯(Hephaestus)在一位独眼巨人的帮助下锻造了塔罗斯,并将这个自动装置作为礼物献给米诺斯(Minos)。[5] 在《阿尔戈英雄传》(Argonautica)中,杰森(Jason)和阿尔戈英雄们通过拔出塔罗斯脚旁的塞子,导致其体内的生命之液流出,从而使塔罗斯丧命。[6]

   皮格马利翁(Pygmalion)是希腊神话中的一位传奇国王与雕刻家,著名的故事出自奥维德的《变形记》。在奥维德的叙事诗《变形记》第十卷中,皮格马利翁因目睹普罗波埃提德斯(Propoetides)自愿卖淫的行为而对女性感到厌恶。尽管如此,他还是在维纳斯(Venus)的神庙中献上祭品,请求女神赐予他一位像他雕刻的雕像一样的女子。[7]

   中世纪关于人工生命体的传说

图
图 1:歌德《浮士德》中的人造小人描绘

   在《事物的本质》中,瑞士炼金术士帕拉塞尔苏斯(Paracelsus)描述了一种他声称能制造 “人造人” 的方法。他将 “一名男子的精液” 放入马粪中,并在 40 天后喂入 “人血的秘方”,这种混合物将变成一个活生生的婴儿。[8]

   关于制造 “哥雷姆”(Golem)的最早书面记载出现在 13 世纪初沃尔姆斯的以利以撒·本·犹大(Eleazar ben Judah)的著作中。[9] 在中世纪,人们认为,通过将写有上帝名字的纸条放入泥人(哥雷姆)口中,可以使其复活。[10] 与像青铜头这样的传奇自动装置不同,哥雷姆是无法说话的。[11][12]

   在伊斯兰教的炼金术手稿中,塔克温(Takwin,即人工生命的创造)是一个常见的主题,尤其是在那些归属于贾比尔·伊本·海扬(Jabir ibn Hayyan)的作品中。伊斯兰炼金术士尝试通过炼金术创造各种生命形式,从植物到动物不等。[13]

   在约翰·沃尔夫冈·冯·歌德(Johann Wolfgang von Goethe)的《浮士德:悲剧的第二部分》中,炼金术制造的 “人造小人”(homunculus)注定要永远生活在他被制造出来的瓶子里,但他努力想要变成一个完整的人类身体。然而,在这一转变开始时,瓶子破裂,人造小人也随之死去。[14]

   现代小说

   到 19 世纪,关于人工人和思考机器的理念成为小说中的一个流行主题。像玛丽·雪莱的《弗兰肯斯坦》和卡雷尔·恰佩克的《R.U.R.》(罗索姆的万能机器人)[15]等著名作品探讨了人工生命的概念。像塞缪尔·巴特勒的《机器中的达尔文》[16]和爱德加·爱伦·坡的《梅尔策尔的棋手》[17]等推测性文章反映了社会对具有人工智能的机器日益增长的兴趣。人工智能至今仍是科幻小说中的常见主题。[18]

   自动装置

图
图 2:阿尔·贾扎里的可编程自动装置(公元 1206 年)

   许多文明的工匠建造了现实中的类人自动装置,包括燕师[19]、亚历山大英雄[20]、阿尔·贾扎里[21]、哈鲁恩·拉希德[22]、雅克·德·沃康松[23][24]、莱昂纳多·托雷斯·伊·凯韦多[25]、皮埃尔·贾凯-德罗兹和沃尔夫冈·冯·肯普伦[26][27]。

   已知最古老的自动装置是古埃及和古希腊的神像[28][29]。信徒们相信,工匠们赋予这些雕像非常真实的心智,能够表现出智慧和情感——赫尔墨斯·特里斯梅吉斯图斯曾写道:“通过发现神的真正本质,人类已能够复制它”[30]。英国学者亚历山大·内克哈姆(Alexander Neckham)主张,古罗马诗人维吉尔曾建造了一座拥有自动雕像的宫殿[31]。

   在早期现代时期,这些传奇的自动装置据说具有回答提问的神奇能力。晚期中世纪的炼金术士和原始新教徒罗杰·培根据说曾制造过一颗青铜头,并发展出自己是巫师的传说[32][33]。这些传说与北欧神话中的米米尔之头相似。传说中,米米尔以智力和智慧著称,在 Æsir-Vanir 战争中被斩首。奥丁被认为 “用草药” 保存了米米尔的头,并对其念咒语,使米米尔的头仍能向奥丁传授智慧。奥丁随后将头放在身边,作为咨询之用[34]。

形式推理

   人工智能基于这样一种假设:人类的思维过程可以被机械化。机械或 “形式” 推理的研究有着悠久的历史。中国、印度和希腊的哲学家们在公元前一千年左右就已经发展出了结构化的形式推理方法。这些思想经过几百年的发展,得到了像亚里士多德(他对三段论进行了形式分析)、欧几里得(他的《几何原本》是形式推理的典范)、阿尔·花拉子米(他发展了代数,并将自己的名字赋予了 “算法” 一词)以及威廉·奥卡姆和邓斯·司各图等欧洲经院哲学家的深化和扩展[35][36]。

   西班牙哲学家拉蒙·柳尔(1232–1315)发展了几种逻辑机器,致力于通过逻辑手段生产知识[37][38];柳尔将他的机器描述为机械实体,能够通过简单的逻辑操作将基本且不容否认的真理组合在一起,机器通过机械方式产生这些操作,从而生成所有可能的知识[39]。柳尔的工作对戈特弗里德·莱布尼茨产生了巨大影响,后者重新发展了他的思想[40]。

图
图 3:戈特弗里德·莱布尼茨,他推测人类的理性可以归结为机械计算。

   17 世纪,莱布尼茨、托马斯·霍布斯和勒内·笛卡尔探索了将所有理性思维系统化的可能性,使其如代数或几何一样具有体系性[41]。霍布斯在《利维坦》中著名地写道:“理性……无非是计算,就是加法和减法”[42]。莱布尼茨设想了一种普遍的推理语言——通用符号系统(characteristica universalis),这种语言将论证简化为计算,令 “两个哲学家之间不再需要争论,正如两个会计师之间也不必争论一样。因为只需拿起他们的铅笔和黑板,就可以彼此对话(如果愿意,可以有朋友作为见证者):让我们计算吧”[43]。这些哲学家开始阐述物理符号系统假设,这一假设最终成为人工智能研究的指导信条。

   数学逻辑的研究提供了使人工智能看似可行的关键突破。布尔的《思想的法则》和弗雷格的《概念文字》为此奠定了基础[44]。基于弗雷格的系统,罗素和怀特海德在 1913 年出版的《数学原理》中对数学基础进行了形式化处理。受罗素成功的启发,戴维·希尔伯特在 1920 年代和 1930 年代挑战数学家们回答一个根本性的问题:“所有的数学推理能否形式化?”[36]这个问题最终得到了哥德尔不完备定理[45]、图灵机[45]和丘奇的λ演算[注]的回答。

图
图 4:美国陆军拍摄的 ENIAC 照片,拍摄地点为摩尔电气工程学院[47]

   他们的答案在两个方面令人惊讶。首先,他们证明了数学逻辑实际上是有局限的。其次(对人工智能更为重要的是),他们的工作表明,在这些局限内,任何形式的数学推理都可以被机械化。丘奇-图灵论题意味着,一台机械设备,只需按简单的符号(如 0 和 1)进行排列,就可以模仿任何可以想象的数学推理过程。关键的洞察是图灵机——一个简单的理论构造,它捕捉了抽象符号操作的本质。[48] 这一发明激发了一些科学家开始讨论思维机器的可能性。

计算机科学

   计算机器在古代和历史上由许多人设计或制造,包括戈特弗里德·莱布尼茨、约瑟夫·玛丽·雅卡尔、查尔斯·巴贝奇、珀西·卢德盖特、莱昂纳多·托雷斯·凯维多、范尼瓦·布什等。艾达·洛夫莱斯曾推测巴贝奇的机器是 “一台思考或...推理机器”,但她警告说:“有必要防止对机器的能力产生夸大的想法。”

   第一台现代计算机是第二次世界大战期间的大型机器(如康拉德·楚泽的 Z3、艾伦·图灵的希思·罗宾逊和巨人机、阿塔纳索夫与贝里的 ABC 以及宾夕法尼亚大学的 ENIAC)。ENIAC 基于艾伦·图灵奠定的理论基础,并由约翰·冯·诺依曼发展而成,证明它是最具影响力的计算机。[57]

2. 人工智能的诞生(1941-1956)

图
图 5:IBM 702:第一代人工智能研究人员使用的计算机。

   早期的思维机器研究受到了 20 世纪 30 年代末、40 年代和 50 年代初流行的思想汇聚的启发。神经学的最新研究表明,大脑是一个由神经元构成的电气网络,神经元以 “全或无” 的脉冲方式发射。诺伯特·维纳的控制论描述了电气网络中的控制与稳定性。克劳德·香农的信息理论描述了数字信号(即 “全或无” 的信号)。艾伦·图灵的计算理论表明,任何形式的计算都可以通过数字化的方式进行描述。这些思想之间的紧密关系暗示,构建一个 “电子大脑” 可能是可行的。

   在 40 年代和 50 年代,来自各个领域(数学、心理学、工程学、经济学和政治学)的少数科学家探索了几个对后来的人工智能研究至关重要的研究方向。艾伦·图灵是最早认真研究 “机器智能” 理论可能性的人之一。“人工智能研究” 作为一门学科在 1956 年成立。[59][60][61]

图灵测试

图
图 6:图灵测试[62]

   1950 年,图灵发表了具有里程碑意义的论文《计算机机械与智能》,在其中他推测了创造能够思考的机器的可能性。在论文中,他指出,“思考” 是一个难以定义的概念,并提出了著名的图灵测试:如果一台机器能够进行一场(通过电传机进行的)对话,且这场对话与与人类的对话无法区分,那么就可以合理地说这台机器是在 “思考”。这种简化版的问题让图灵能够有力地论证 “思考机器” 至少是可行的,这篇论文回答了所有对这一命题的常见反对意见。图灵测试是人工智能哲学中第一个严肃的提案。

人工神经网络

   沃尔特·皮茨(Walter Pitts)和沃伦·麦卡洛克(Warren McCulloch)于 1943 年分析了理想化的人工神经元网络,并展示了它们如何执行简单的逻辑功能。他们是首个描述后来被称为神经网络的学者[66]。该论文受到了图灵 1936 年《可计算数的论述》一文的影响,采用了类似的两状态布尔 “神经元”,但首次将其应用于神经功能[60]。受皮茨和麦卡洛克启发的学生之一是马文·敏斯基(Marvin Minsky),当时他是一个 24 岁的研究生。1951 年,敏斯基和迪恩·埃德蒙兹(Dean Edmonds)建立了第一个神经网络机器——SNARC[67]。敏斯基后来成为人工智能领域最重要的领导者和创新者之一。

控制论机器人

   20 世纪 50 年代,W·格雷·沃尔特(W. Grey Walter)的海龟机器人和约翰霍普金斯大学的野兽机器人等实验性机器人相继问世。这些机器人没有使用计算机、数字电子学或符号推理,而是完全由模拟电路控制[68]。

游戏人工智能

   1951 年,克里斯托弗·斯特雷奇(Christopher Strachey)利用曼彻斯特大学的费兰提 Mark 1 计算机编写了一个跳棋程序[69],而迪特里希·普林茨(Dietrich Prinz)则为国际象棋编写了一个程序[70]。阿瑟·塞缪尔(Arthur Samuel)的跳棋程序是他 1959 年论文《机器学习的若干研究:以跳棋为例》中的研究成果,该程序最终达到了足以挑战一位相当水平的业余玩家的水平[71]。塞缪尔的程序是后来被称为机器学习的早期应用之一[72]。游戏人工智能将继续作为人工智能发展的衡量标准,贯穿其历史。

符号推理与《逻辑理论家》

图
图 7:符号推理与《逻辑理论家》

   当 50 年代中期开始可以访问数字计算机时,一些科学家本能地认识到,一台能够操控数字的机器同样也能操控符号,而符号的操控可能正是人类思维的本质。这是一种创造思维机器的新方法。[73][74]

   1955 年,艾伦·纽厄尔(Allen Newell)和未来的诺贝尔奖得主赫伯特·A·西蒙(Herbert A. Simon)在 J·C·肖(J. C. Shaw)的帮助下创造了 “逻辑理论家”(Logic Theorist)。该程序最终证明了拉塞尔和怀特海德《数学原理》(Principia Mathematica)中的前 52 个定理中的 38 个,并为其中一些定理找到了新的、更优雅的证明。[75] 西蒙表示,他们 “解决了久远的心灵/身体问题,解释了一个由物质组成的系统如何具备心灵的特性。”[76][c] 他们所提出的符号推理范式将主导人工智能的研究和资金支持,直到 90 年代中期,并且启发了认知革命。

达特茅斯研讨会

   1956 年的达特茅斯研讨会是一个关键事件,标志着人工智能作为一门学科的正式诞生。它由马文·明斯基和约翰·麦卡锡组织,并得到了 IBM 的两位资深科学家克劳德·香农和内森·罗切斯特的支持。会议提案中指出,他们旨在验证这一断言:“学习的每一个方面或智能的任何其他特征都可以被如此精确地描述,以至于可以制造一台机器来模拟它。”

   “人工智能” 这一术语由约翰·麦卡锡在研讨会上提出。与会者包括雷·所罗门诺夫、奥利弗·塞尔弗里奇、特伦查德·摩尔、阿瑟·塞缪尔、艾伦·纽厄尔和赫伯特·A·西蒙,他们都将在人工智能研究的初期几十年里创建重要的程序。在研讨会上,纽厄尔和西蒙首次展示了《逻辑理论家》程序。

   这次研讨会是人工智能获得名称、使命、首个重大成功和关键人物的时刻,被广泛认为是人工智能的诞生。

认知革命

   1956 年秋天,纽厄尔和西蒙在麻省理工学院(MIT)信息理论特别兴趣小组会议上展示了《逻辑理论家》。在同一会议上,诺姆·乔姆斯基讨论了他的生成语法,乔治·米勒描述了他的开创性论文《神奇的数字七,加或减二》。米勒写道:“我带着一种比理性更为直观的信念离开了研讨会,那就是实验心理学、理论语言学和认知过程的计算机模拟都是一个更大整体中的一部分。”

   这次会议标志着 “认知革命” 的开始——一个跨学科的范式转变,涉及心理学、哲学、计算机科学和神经科学。它启发了符号人工智能、生成语言学、认知科学、认知心理学、认知神经科学以及计算主义和功能主义哲学学派的创建。所有这些领域都使用相关工具来建模心智,并且在一个领域中发现的结果对其他领域也具有相关性。

   认知方法使研究人员能够考虑 “心理对象”,如思想、计划、目标、事实或记忆,通常使用高级符号在功能网络中进行分析。这些对象在早期的行为主义等范式中被视为 “不可观察的”,因此不被允许作为研究对象。[h] 符号心理对象将成为接下来几十年人工智能研究和资金投入的主要焦点。

3. 早期的成功(1956-1974)

   在达特茅斯研讨会之后开发的程序,对于大多数人来说,简直是 “令人震惊的”[i]:计算机开始解决代数应用题,证明几何定理,并学习说英语。当时几乎没有人相信机器能够表现出如此 “智能” 的行为。[90][91][89] 研究人员在私下和公开场合表达了强烈的乐观情绪,预测不到 20 年内将建成完全智能的机器。[92] 像国防高级研究计划局(DARPA,时称 “ARPA”)这样的政府机构向该领域注入了大量资金。[93] 到了 1950 年代末和 1960 年代初,多个英国和美国的大学设立了人工智能实验室。[60]

方法

   在 50 年代末和 60 年代,出现了许多成功的程序和新的研究方向。其中最具影响力的有:

   推理、规划和问题解决作为搜索

   许多早期的人工智能程序使用了相同的基本算法。为了实现某个目标(如赢得游戏或证明定理),它们一步步朝着目标前进(通过进行一次移动或推理),就像在迷宫中搜索一样,每当到达死胡同时便回溯。[94] 主要的困难在于,对于许多问题,"迷宫"中可能的路径数量是天文数字(这种情况被称为 “组合爆炸”)。研究人员通过使用启发式方法来减少搜索空间,排除那些不太可能通向解决方案的路径。[95]

   纽厄尔和西蒙试图在一个名为 “通用问题求解器” 的程序中捕捉这种算法的一般版本。[96][97] 其他 “搜索” 程序也能够完成令人印象深刻的任务,比如解决几何和代数问题,例如赫伯特·格尔恩特的几何定理证明器(1958 年)[98] 和由敏斯基的学生詹姆斯·斯莱格尔在 1961 年编写的符号自动积分器(SAINT)[99][100]。其他程序则通过搜索目标和子目标来规划行动,例如斯坦福大学开发的 STRIPS 系统,用于控制机器人 Shakey 的行为。[101]

   自然语言

图
图 8:语义网络的示例

   人工智能研究的一个重要目标是使计算机能够使用像英语这样的自然语言进行交流。早期的一个成功是丹尼尔·鲍布罗的程序 STUDENT,该程序能够解决高中代数的文字题。[102]

   语义网将概念(例如 “房子”,“门”)表示为节点,将概念之间的关系表示为节点之间的链接(例如 “有一个”)。第一个使用语义网的人工智能程序是由罗斯·奎利安编写的[103],而最成功(也是最具争议)的版本是罗杰·尚克的概念依赖理论。[104]

   约瑟夫·维岑鲍姆的 ELIZA 能够进行非常真实的对话,以至于用户有时会被误导,以为他们在与一个人而非计算机程序进行交流(参见 ELIZA 效应)。但事实上,ELIZA 只是给出预设的回应或重复它所听到的话,通过一些语法规则对其回应进行重新表述。ELIZA 是第一个聊天机器人。[105][106]

   微世界

   在 60 年代末,麻省理工学院人工智能实验室的马文·明斯基和西摩·帕皮特提出,人工智能研究应该聚焦于人为构建的简单情境,称为微世界。他们指出,在像物理学这样成功的科学领域,基本原理通常通过简化模型(如无摩擦的平面或完全刚性的物体)来理解。在人工智能的研究中,大部分工作集中在 “积木世界” 上,这个世界由不同形状和大小的彩色积木组成,摆放在平面上。

   这一范式引领了由杰拉尔德·萨斯曼、阿道夫·古兹曼、戴维·沃尔茨(发明了 “约束传播”)以及特别是帕特里克·温斯顿等人进行的机器视觉方面的创新工作。与此同时,明斯基和帕皮特构建了一个可以堆叠积木的机器人臂,使得积木世界变得生动起来。特里·温诺格拉德的 SHRDLU 系统可以用普通的英语句子与微世界进行交流,规划操作并执行这些操作。

   感知机和早期神经网络

   在 1960 年代,资金主要流向研究符号人工智能的实验室,然而,仍然有一些人继续从事神经网络的研究。

图
图 9:马克 1 感知机

   感知机是一个单层神经网络,由 Frank Rosenblatt 于 1958 年提出(他曾是 Marvin Minsky 在布朗克斯科学高中的同学)。像大多数人工智能研究者一样,Rosenblatt 对其潜力持乐观态度,预测感知机 “最终可能能够学习、做出决策并翻译语言”。Rosenblatt 的研究主要得到海军研究办公室的资助。

   Bernard Widrow 和他的学生 Ted Hoff 分别在 1960 年和 1962 年研发了 ADALINE 和 MADALINE,这两者具有最多 1000 个可调权重。斯坦福研究所的一组由 Charles A. Rosen 和 Alfred E.(Ted)Brain 领导,研制了两台名为 MINOS I(1960 年)和 MINOS II(1963 年)的神经网络机器,主要由美国陆军信号军团资助。MINOS II 具有 6600 个可调权重,并由 SDS 910 计算机控制,配置为 MINOS III(1968 年),该机器能够在军用地图上进行符号分类,并识别 Fortran 编码表单上的手写字符。在这个早期阶段,大多数神经网络的研究都涉及构建和使用定制硬件,而不是在数字计算机上进行模拟。

   然而,由于结果匮乏和符号 AI 研究的竞争,MINOS 项目于 1966 年停止了资助。Rosenblatt 未能在 1960 年代争取到持续的资助。1969 年,Minsky 和 Papert 的《感知机》一书的出版使得研究突然停滞。该书指出,感知机在能力上存在严重的局限性,Rosenblatt 的预测被大大夸大了。该书的影响是,几乎没有与联结主义相关的研究获得资助,持续了 10 年。政府资助的竞争最终以符号 AI 方法战胜神经网络为结局。

   Minsky(曾参与 SNARC 的研究)成为纯联结主义 AI 的坚定反对者。Widrow(曾参与 ADALINE 的研究)转向了自适应信号处理。参与 MINOS 项目的 SRI 团队则转向了符号 AI 和机器人学。

   主要问题是无法训练多层网络(反向传播的版本已经在其他领域使用,但这些研究者并不知情)。到了 1980 年代,AI 社区开始认识到反向传播算法,并在 21 世纪,神经网络取得了巨大的成功,实现了 Rosenblatt 的乐观预期。然而,Rosenblatt 未能亲眼看到这一成果,因为他在 1971 年死于一场划船事故。

乐观主义

   第一代人工智能研究人员对他们的工作做出了以下预测:

资金支持

   1963 年 6 月,麻省理工学院(MIT)获得了由新成立的先进研究计划署(ARPA,后来的 DARPA)提供的 220 万美元资助。这笔资金用于资助 MAC 项目,后者包含了五年前由 Minsky 和 McCarthy 创立的 “人工智能小组”。DARPA 一直每年提供 300 万美元,直到 70 年代。[130] DARPA 还向 Newell 和 Simon 在卡内基梅隆大学的项目、以及由 John McCarthy 在 1963 年创立的斯坦福大学人工智能实验室提供了类似的资助。[131] 另一个重要的人工智能实验室是由 Donald Michie 于 1965 年在爱丁堡大学成立的。[132] 这四个机构在多年间将继续成为学术界人工智能研究和资金支持的主要中心。[133][m]

   这笔资金几乎没有附加任何条件:当时 ARPA 的负责人 J. C. R. Licklider 认为他的组织应该 “资助人,而不是项目!” 并允许研究人员追求他们感兴趣的任何方向。[135] 这种自由放任的氛围在 MIT 孕育了黑客文化,[136] 但这种 “放手” 的做法并没有持续太久。

4. 第一次人工智能寒冬(1974–1980)

   在 1970 年代,人工智能遭遇了批评和财政困难。人工智能研究人员未能认识到他们所面临问题的复杂性。过度的乐观主义抬高了公众的期望,而当预期的结果未能实现时,针对人工智能的资金支持大幅减少。[137] 缺乏成功的结果表明,当时人工智能研究者所采用的技术不足以实现他们的目标。[138][139]

   然而,这些挫折并未影响该领域的成长和进展。资金的削减仅影响了少数几个主要实验室,[140] 而批评也大多被忽视。[141] 公众对该领域的兴趣继续增长,[140] 研究人员的数量急剧增加,[140] 并且在逻辑编程、常识推理等多个领域探索了新思路。历史学家托马斯·海格(Thomas Haigh)在 2023 年认为这一时期并没有所谓的寒冬,[140] 而人工智能研究员尼尔斯·尼尔森(Nils Nilsson)则将这一时期描述为人工智能领域最 “激动人心” 的时期。[142]

问题

   在 70 年代初,人工智能程序的能力有限。即便是最为出色的程序,也只能处理它们应该解决的简单版本问题;[n] 所有这些程序在某种意义上都是 “玩具”。[144] 人工智能研究人员开始遇到几个限制,这些限制在数十年后才被克服,还有一些问题至今仍困扰着这一领域,尤其是在 2020 年代:

资金减少

   资助人工智能研究的机构,如英国政府、DARPA 和国家研究委员会(NRC),对进展的缺乏感到沮丧,最终几乎切断了所有无明确方向的人工智能研究资助。这一趋势始于 1966 年,当时自动语言处理咨询委员会(ALPAC)报告批评了机器翻译的努力。在花费了 2000 万美元之后,NRC 终止了所有支持。[154] 1973 年,Lighthill 报告对英国人工智能研究的现状进行了批评,指出人工智能未能实现其 “宏伟目标”,并导致英国该国人工智能研究的解散。[155](报告特别提到组合爆炸问题作为人工智能失败的原因。)[139][143][s] DARPA 对卡内基梅隆大学的语音理解研究项目的研究人员感到非常失望,并取消了每年 300 万美元的资助。[157][t]

   汉斯·莫拉维克(Hans Moravec)将这场危机归咎于他同事们的不切实际预测。“许多研究人员陷入了一个日益夸大的网络。”[158][u] 然而,另一个问题是:自 1969 年《曼斯菲尔德修正案》通过以来,DARPA 承受着越来越大的压力,要求资助 “以任务为导向的直接研究,而不是基础性的无方向研究”。1960 年代那种富有创造性、自由探索的资金支持不再来自 DARPA,后者转而将资金用于具有明确目标的具体项目,如自主坦克和战斗管理系统。[159][v]

   主要实验室(如 MIT、斯坦福、CMU 和爱丁堡)曾获得政府的慷慨支持,当这种支持被撤回时,这些地方成为预算削减的主要受影响者。而这些机构之外的成千上万的研究人员以及加入这一领域的更多研究人员并未受到影响。[140]

哲学和伦理批评

   一些哲学家对人工智能研究者所提出的主张表示强烈反对。其中最早的反对者之一是约翰·卢卡斯(John Lucas),他认为哥德尔的不完全性定理表明,形式系统(如计算机程序)永远无法看清某些命题的真理,而人类却能够。[161] 休伯特·德雷福斯(Hubert Dreyfus)嘲笑 1960 年代的虚假承诺,并批评人工智能的假设,认为人类推理实际上涉及的 “符号处理” 非常少,而更多的是具身的、本能的、无意识的 “知道如何做”。[w][163] 约翰·塞尔(John Searle)于 1980 年提出的中文房间论证,试图表明一个程序不能被认为 “理解” 它所使用的符号(这种能力被称为 “意向性”)。塞尔认为,如果符号对机器没有意义,那么机器就不能被描述为 “思考”。[164]

   这些批评没有被人工智能研究者认真对待。像不可解性和常识知识等问题似乎更为紧迫和严重。实际上,对于一个计算机程序来说,“知道如何做” 或 “意向性” 到底有什么区别尚不清楚。麻省理工学院的明斯基(Minsky)曾说德雷福斯和塞尔 “误解了问题,应该被忽视。”[165] 同样也在麻省理工任教的德雷福斯受到了冷落:他后来表示,人工智能研究者 “敢不敢在我面前吃午餐”。[166] 《ELIZA》的作者约瑟夫·韦岑鲍姆(Joseph Weizenbaum)也是德雷福斯立场的直言批评者,但他 “故意让人清楚地知道[他对德雷福斯的对待方式]并不是对待人的方式”,[x] 他认为这种做法不专业且幼稚。[168]

   当肯尼斯·科尔比(Kenneth Colby)写出了一个基于 ELIZA 的 “能够进行心理治疗对话” 的计算机程序时,韦岑鲍姆开始对人工智能产生严重的伦理疑问。[169][170][y] 韦岑鲍姆对科尔比将一个无意识的程序视为严肃的治疗工具感到不安。两人开始发生冲突,而科尔比没有在程序的贡献中注明韦岑鲍姆的名字,使得局势更加复杂。1976 年,韦岑鲍姆出版了《计算机的力量与人类的理性》,其中论述了人工智能的误用可能会贬低人类生命的价值。[172]

斯坦福大学、卡内基梅隆大学和爱丁堡大学的逻辑研究

   逻辑早在 1958 年就被引入人工智能研究,约翰·麦卡锡(John McCarthy)在他的 “建议接收者”(Advice Taker)提案中提出了这一概念。[173][98] 1963 年,J·艾伦·罗宾逊(J. Alan Robinson)发现了一种简单的方法,可以在计算机上实现推理,即分辨率与统一算法。[98] 然而,像麦卡锡和他在 1960 年代末的学生们尝试的直接实现,尤其在处理简单定理证明时特别困难:这些程序需要进行天文数字级的步骤才能证明简单的定理。[173][174] 1970 年代,罗伯特·科瓦尔斯基(Robert Kowalski)在爱丁堡大学开发了一种更具成果的方法,这很快促成了与法国研究者阿兰·科尔梅罗(Alain Colmerauer)和菲利普·鲁塞尔(Philippe Roussel)的合作,他们创建了成功的逻辑编程语言 Prolog。[175] Prolog 使用了逻辑的一个子集(霍恩子句,密切相关于 “规则” 和 “产生规则”),这些子集允许可处理的计算。规则继续发挥影响,为爱德华·费根鲍姆(Edward Feigenbaum)的专家系统提供了基础,并为艾伦·纽厄尔(Allen Newell)和赫伯特·A·西蒙(Herbert A. Simon)继续开展的工作奠定了基础,这些工作最终将发展为 Soar 和他们的统一认知理论。[176]

   逻辑方法的批评者指出,正如德雷福斯(Dreyfus)所言,人类在解决问题时很少使用逻辑。心理学家如彼得·沃森(Peter Wason)、埃莉诺·罗斯(Eleanor Rosch)、阿莫斯·特沃斯基(Amos Tversky)、丹尼尔·卡尼曼(Daniel Kahneman)等人的实验提供了证据。[z] 麦卡锡回应说,人们做什么是无关紧要的。他认为,真正需要的是能解决问题的机器,而不是像人类那样思考的机器。[aa]

麻省理工学院的 “反逻辑” 方法

   麦卡锡方法的批评者之一是他在全国各地的同事,特别是麻省理工学院的研究者。马文·明斯基(Marvin Minsky)、西摩·帕珀特(Seymour Papert)和罗杰·香克(Roger Schank)试图解决像 “故事理解” 和 “物体识别” 这样的难题,这些问题要求机器像人一样思考。为了使用像 “椅子” 或 “餐馆” 这样的普通概念,他们不得不做出与人类通常做出的相同的不合逻辑的假设。不幸的是,像这些模糊概念很难用逻辑表示。麻省理工学院选择专注于编写能够解决特定任务的程序,而不使用高级抽象定义或一般认知理论,并通过反复测试来衡量性能,而不是从第一原理出发进行推理。香克将他们的 “反逻辑” 方法描述为杂乱无章的,相对于麦卡锡、科瓦尔斯基(Kowalski)、费根鲍姆(Feigenbaum)、纽厄尔(Newell)和西蒙(Simon)使用的整洁范式。[177][ab]

   1975 年,明斯基在一篇具有开创性的论文中指出,许多同事正在使用相同的工具:一种框架,它捕捉了我们所有关于某事的常识假设。例如,当我们使用 “鸟” 这个概念时,立即会浮现出一系列事实:我们可能假设它会飞、吃虫子等等(这些并不适用于所有鸟类)。明斯基将这些假设与一般类别关联,它们可以被子类别和个体的框架继承或根据需要被覆盖。他称这些结构为 “框架”(frames)。香克使用了他称之为 “脚本”(scripts)的框架版本,成功地回答了关于英语短篇小说的问题。[178] “框架” 最终在软件工程中广泛应用,作为面向对象编程(OOP)的一部分。

   逻辑学家们迎接了这个挑战。帕特·海耶斯(Pat Hayes)声称,“‘框架’大部分只是形式逻辑的第一阶语法的一种新形式。” 但他指出,“然而,有一两个看似微小的细节,给人带来了很多麻烦,尤其是默认值。”[179]

   雷·赖特(Ray Reiter)承认,“传统的逻辑,如一阶逻辑,缺乏足够的表达能力来充分表示默认推理所需的知识。”[180] 他提出通过闭合世界假设来扩展一阶逻辑,即如果无法证明某个结论的对立面,那么结论默认成立。他展示了这种假设如何与使用框架推理时所做的常识性假设相对应。他还表明,它在 Prolog 中有其 “程序等价物”,即 “失败的否定”。赖特所提出的闭合世界假设 “不是一阶的概念。(它是一个元概念。)”[180] 然而,基思·克拉克(Keith Clark)展示了,作为有限失败的否定可以被理解为在一阶逻辑中隐式推理使用定义,包括一个独特名称假设,即不同的术语表示不同的个体。[181]

   在 1970 年代末和整个 1980 年代,许多逻辑和一阶逻辑的扩展被开发出来,用于逻辑编程中的 “失败的否定” 和默认推理的更广泛应用。总体而言,这些逻辑被称为非单调逻辑(non-monotonic logics)。

5. 繁荣(1980–1987)

   在 1980 年代,一种被称为 “专家系统” 的人工智能程序被世界各地的公司采纳,知识成为主流 AI 研究的焦点。各国政府提供了大量资金支持,例如日本的第五代计算机项目和美国的战略计算计划。“总体而言,AI 产业从 1980 年的几百万美元,发展到 1988 年的数十亿美元。”[122]

专家系统广泛应用

   专家系统是一种使用从专家知识中推导出的逻辑规则来回答问题或解决特定领域知识相关问题的程序。[182] 最早的例子由 Edward Feigenbaum 及其学生开发。Dendral,始于 1965 年,通过光谱仪读数识别化合物。[183][120] MYCIN,开发于 1972 年,用于诊断传染性血液疾病。[122] 它们展示了这一方法的可行性。

   专家系统将自己限制在一个狭小的特定领域(从而避免了常识知识问题)[120],其简单的设计使得一旦系统建立,程序可以相对容易地进行构建和修改。总的来说,这些程序被证明是有用的:这是 AI 此前未能实现的目标。[184]

   1980 年,CMU 为数字设备公司(Digital Equipment Corporation)完成了一个名为 R1 的专家系统。它取得了巨大的成功:到 1986 年,它为公司每年节省了 4000 万美元。[185] 世界各地的公司开始开发和部署专家系统,到 1985 年,他们在人工智能上的支出已超过 10 亿美元,其中大部分用于内部 AI 部门。[186] 支持这一行业的公司应运而生,包括硬件公司 Symbolics 和 Lisp Machines 以及软件公司 IntelliCorp 和 Aion。[187]

政府资金增加

   1981 年,日本国际贸易与工业省为第五代计算机项目拨出了 8.5 亿美元。他们的目标是编写程序并构建能够进行对话、翻译语言、解读图像并像人类一样推理的机器。[188] 令 “反逻辑派” 不悦的是,他们最初选择了 Prolog 作为该项目的主要计算机语言。[189]

   其他国家也开始推出自己的新项目。英国启动了价值 3.5 亿英镑的 Alvey 项目。[190] 一组美国公司组成了微电子与计算机技术公司(Microelectronics and Computer Technology Corporation,简称 “MCC”),为人工智能和信息技术的大规模项目提供资金。[191][190] DARPA 也作出了回应,成立了战略计算计划(Strategic Computing Initiative),并在 1984 年至 1988 年间将其在人工智能上的投资增加了三倍。[192][193]

知识革命

   专家系统的力量来自于它们所包含的专家知识。它们是人工智能研究中新方向的一部分,这一方向在 70 年代逐渐获得关注。Pamela McCorduck 写道:“人工智能研究人员开始怀疑——尽管这违背了科学简约的原则——智能可能确实基于在不同方式中使用大量多样化知识的能力。”[194] “1970 年代的一个重要教训是,智能行为在很大程度上依赖于处理一个领域中具体任务所需的知识,有时甚至是非常详细的知识。”[195] 知识基础系统和知识工程在 1980 年代成为人工智能研究的主要焦点。[196] 人们希望通过庞大的数据库解决常识知识问题,并提供常识推理所需的支持。

   在 1980 年代,一些研究人员试图直接解决常识知识问题,通过创建一个包含普通人所知道的所有平凡事实的庞大数据库。Douglas Lenat 开始了一个名为 Cyc 的数据库,并主张没有捷径可走——机器理解人类概念的唯一方法是通过手动逐个概念地进行教学。[197]

6. 1980 年代的新方向

   尽管符号知识表示和逻辑推理在 80 年代产生了有用的应用,并获得了大量资金支持,但它仍未能解决感知、机器人学、学习和常识方面的问题。一小部分科学家和工程师开始怀疑符号方法是否能足够应对这些任务,并发展了其他方法,如 “联结主义”、机器人技术、“软” 计算和强化学习。Nils Nilsson 将这些方法称为 “亚符号” 方法。

神经网络的复兴:“联结主义”

图
图 10:四节点的 Hopfield 网络

   1982 年,物理学家约翰·霍普菲尔德证明了一种形式的神经网络(现在称为 “霍普菲尔德网络”)可以学习和处理信息,并且在任何固定条件下经过足够的时间后会收敛。这是一个突破性的进展,因为之前人们认为非线性网络通常会演化成混沌状态。[198] 与此同时,杰弗里·辛顿和大卫·鲁梅尔哈特推广了一种用于训练神经网络的方法,称为 “反向传播”。[ac] 这两个发展有助于复兴对人工神经网络的探索。[122][199]

   神经网络与其他一些类似的模型在 1986 年《并行分布式处理》一书出版后引起了广泛关注,这本书是鲁梅尔哈特和心理学家詹姆斯·麦克莱兰德编辑的两卷论文集。这个新兴领域被命名为 “联结主义”,并且符号 AI 的支持者与 “联结主义者” 之间展开了激烈的辩论。[122] 辛顿将符号称为 “AI 的发光以太”——即一种不可行且误导性的智能模型。[122]

   1990 年,扬·勒昆在贝尔实验室使用卷积神经网络识别手写数字。该系统在 90 年代被广泛应用,读取邮政编码和个人支票。这是神经网络的第一个真正有用的应用。[200][201]

机器人学与具身推理

   Rodney Brooks、Hans Moravec 等人认为,为了展示真正的智能,机器必须拥有一个身体——它需要感知、移动、生存并与世界互动。[202] 感知运动技能对于更高层次的技能(如常识推理)至关重要。这些技能无法通过抽象的符号推理高效实现,因此,人工智能应该在不使用符号表示的情况下解决感知、移动、操作和生存等问题。这些机器人学研究人员主张 “从底层构建智能”。[ad]

   这一思想的先驱是 David Marr,他在 1970 年代末从理论神经科学的成功背景中来到 MIT,领导了视觉研究小组。他拒绝所有符号方法(无论是 McCarthy 的逻辑还是 Minsky 的框架),认为人工智能需要从底层理解视觉的物理机制,才能进行任何符号处理。(Marr 的研究因 1980 年罹患白血病而提前终止。)[204]

   在 1990 年,机器人学研究人员 Brooks 在他的论文《大象不会下棋》中直接反驳了物理符号系统假设,认为符号并非总是必要的,因为 “世界本身就是最好的模型。它总是最新的,里面包含了所有需要知道的细节。关键是要恰当地感知这些信息,并且足够频繁地感知。”[206]

   在 1980 年代和 1990 年代,许多认知科学家也拒绝了符号处理模型,认为身体对推理至关重要,这一理论被称为 “具身心智假设”。[207]

软计算与概率推理

   软计算使用的是处理不完全和不精确信息的方法。这些方法并不试图给出精确的、逻辑上的答案,而是给出 “可能” 正确的结果。这使得它们能够解决精确符号方法无法处理的问题。新闻报道常常声称这些工具可以 “像人类一样思考”。[208][209]

   Judea Pearl 的《智能系统中的概率推理:合理推理网络》是一本具有影响力的 1988 年出版的书籍,[210] 它将概率和决策理论引入到人工智能中。[211] 由 Lofti Zadeh 在 1960 年代发展起来的模糊逻辑,开始在人工智能和机器人学中得到更广泛的应用。进化计算和人工神经网络也处理不精确的信息,并被归类为 “软计算”。在 1990 年代和 2000 年代初,许多其他软计算工具被开发并投入使用,包括贝叶斯网络,[211] 隐马尔可夫模型,[211] 信息理论和随机建模。这些工具反过来依赖于先进的数学技术,如经典优化。1990 年代和 2000 年代初,这些软工具被人工智能的一个子领域——“计算智能” 所研究。[212]

强化学习

   强化学习[213] 每当一个智能体执行一个期望的行为时,就会给予奖励,当它执行不佳时,可能会给予负奖励(或 “惩罚”)。这种方法在 20 世纪上半叶由心理学家使用动物模型描述,如 Thorndike,[214][215] Pavlov,[216] 和 Skinner。[217] 在 1950 年代,Alan Turing[215][218] 和 Arthur Samuel[215] 预见到强化学习在人工智能中的作用。

   一个成功且有影响力的研究项目由 Richard Sutton 和 Andrew Barto 于 1972 年开始领导。他们的合作革新了强化学习和决策制定的研究,持续了四十年。[219][220] 1988 年,Sutton 将机器学习用决策理论(即马尔可夫决策过程)来描述。这为这一学科提供了坚实的理论基础,并获得了在运筹学领域开发的大量理论成果。[220]

   同样在 1988 年,Sutton 和 Barto 开发了 “时间差分”(TD)学习算法,其中智能体只有在其对未来的预测有改善时才会获得奖励。它显著地优于之前的算法。[221] TD 学习被 Gerald Tesauro 于 1992 年应用在程序 TD-Gammon 中,该程序在跳棋游戏中表现与最优秀的人类玩家相当。该程序通过自我对弈、零前知识来学习游戏。[222] 在一个有趣的跨学科融合案例中,神经学家在 1997 年发现,大脑中的多巴胺奖励系统也使用一种版本的 TD 学习算法。[223][224][225] TD 学习在 21 世纪变得非常有影响力,并被用于 AlphaGo 和 AlphaZero 等项目。[226]

7. 第二次 AI 冬天

   在 1980 年代,商业界对人工智能的热情起伏,呈现出典型的经济泡沫模式。随着大量公司失败,商业界的普遍看法是,AI 技术不可行。[227] 对人工智能声誉的损害一直持续到 21 世纪。在 AI 领域内部,对于为何 AI 未能实现 60 年代人们对类人智能的梦想,意见分歧。所有这些因素共同作用,导致 AI 领域分裂成多个竞争的子领域,专注于特定的问题或方法,有时甚至以新的名称掩盖 “人工智能” 这一被打上污点的名号。[228]

   在接下来的 20 年里,AI 始终能够为特定的孤立问题提供有效的解决方案。到了 1990 年代末,AI 被广泛应用于技术行业,尽管大多是在幕后。成功的原因在于计算机计算能力的提高,与其他领域(如数学优化和统计学)的合作,以及采用最高标准的科学可验证性。到 2000 年,AI 已经实现了其最早的一些目标。这个领域比以往任何时候都更加谨慎且成功。

AI 冬天

   “AI 冬天” 这一术语由那些经历了 1974 年资金削减的研究人员创造,他们当时担心专家系统的热情已经失控,且失望肯定会随之而来。[ae] 他们的担忧是有根据的:在 1980 年代末和 1990 年代初,AI 遭遇了一系列财务挫折。[122]

   天气变化的第一个迹象是 1987 年专用 AI 硬件市场的突然崩溃。Apple 和 IBM 的台式电脑逐渐提高了速度和性能,到了 1987 年,它们比 Symbolics 等公司制造的昂贵 Lisp 机器更强大。此时已没有足够的理由再购买这些专用机器。一个价值五亿美元的行业在一夜之间被摧毁。[230]

   最终,最早成功的专家系统,如 XCON,证明了维护成本过高。它们难以更新,无法学习,并且 “脆弱”(即,在面对异常输入时会犯下离谱的错误)。专家系统虽然有用,但只在少数特殊情境下有效。[231]

   在 1980 年代末,战略计算计划(Strategic Computing Initiative)大幅削减了对 AI 的资金支持。DARPA 的新领导层认为 AI 不是 “下一个浪潮”,因此将资金转向了那些看起来更有可能立即产生成果的项目。[232]

   到了 1991 年,日本第五代计算机计划中 1981 年设定的雄心勃勃的目标尚未实现。事实上,其中一些目标,如 “进行随意对话”,要到 40 年后才得以实现。和其他 AI 项目一样,预期远高于实际可能达到的水平。[233][af]

   到 1993 年底,超过 300 家 AI 公司已关闭、破产或被收购,实际上结束了第一次 AI 商业浪潮。[235] 1994 年,HP Newquist 在《大脑制造者》一书中表示:“人工智能的短期未来——以其商业形式——似乎在一定程度上依赖于神经网络的持续成功。”[235]

幕后 AI

   在 1990 年代,由 AI 研究人员最初开发的算法开始作为更大系统的一部分出现。AI 解决了许多非常困难的问题[ag],这些解决方案证明在整个技术行业中都非常有用,[236][237]例如数据挖掘、工业机器人、物流、语音识别[238]、银行软件[239]、医疗诊断[239]以及谷歌的搜索引擎。[240][241]

   在 1990 年代和 2000 年代初期,AI 在这些成功中几乎没有得到任何认可。许多 AI 的重大创新被降级为计算机科学工具箱中的另一项技术。[242] Nick Bostrom 解释道:“许多前沿的 AI 技术已经渗透到一般应用中,通常因为一旦某项技术变得足够有用并且普及,它就不再被称为 AI 了。”[239]

   1990 年代的许多 AI 研究者故意将他们的工作命名为其他名称,如信息学、知识基系统、“认知系统” 或计算智能。这部分可能是因为他们认为自己的领域与 AI 本质上不同,但也因为新名称有助于获得资金。[238][243][244] 至少在商业世界中,AI 冬天的失败承诺继续困扰着 AI 研究直到 2000 年代,正如《纽约时报》在 2005 年报道的:“计算机科学家和软件工程师避免使用‘人工智能’这一术语,担心被视为异想天开的梦想家。”[245]

数学严谨性、更强的合作和狭隘的聚焦

   AI 研究人员开始比以往任何时候都更多地开发和使用复杂的数学工具。[246][247] AI 中的大多数新方向都高度依赖于数学模型,包括人工神经网络、概率推理、软计算和强化学习。在 1990 年代和 2000 年代,许多其他高度数学化的工具也被应用于 AI。这些工具被应用于机器学习、感知和移动性等领域。

   人们普遍意识到,AI 需要解决的许多问题已经由统计学、数学、电气工程、经济学或运筹学等领域的研究人员在研究。共享的数学语言不仅促进了与这些更成熟、更成功领域的高水平合作,还使得可以实现可衡量和可证明的成果;AI 已成为一个更加严谨的 “科学” 学科。

   1990 年代成功的另一个关键原因是 AI 研究人员将重点放在具有可验证解决方案的具体问题上(这一方法后来被讽刺为狭义 AI)。这提供了当前有用的工具,而不是对未来的猜测。

智能体

   在 1990 年代,一个名为 “智能体” 的新范式被广泛接受。[248][249][ah] 尽管早期的研究人员提出了模块化的 “分而治之” 方法来解决 AI 问题,[ai] 但智能体直到 Judea Pearl、Allen Newell、Leslie P. Kaelbling 等人将决策理论和经济学的概念引入 AI 研究时,才达到了现代形式。[250] 当经济学家对理性智能体的定义与计算机科学中对象或模块的定义结合时,智能体范式就此完成。

   智能体是一个能够感知其环境并采取行动以最大化成功机会的系统。根据这一定义,解决特定问题的简单程序也可以视为 “智能体”,人类及人类组织(如公司)也是智能体。智能体范式将 AI 研究定义为 “智能体的研究”。[aj] 这是对一些早期 AI 定义的泛化:它不仅研究人类智能,还研究各种形式的智能。

   这一范式使得研究人员可以自由地研究孤立的问题,并就方法存在分歧,但仍保留希望,认为他们的工作最终可以结合成一种具有一般智能的智能体架构。[251]

里程碑和摩尔定律

   1997 年 5 月 11 日,深蓝(Deep Blue)成为第一个击败世界棋王加里·卡斯帕罗夫的计算机象棋系统。[252] 2005 年,斯坦福大学的机器人在 DARPA 大奖赛中获胜,通过自主驾驶在未排练的沙漠小径上行驶了 131 英里。两年后,CMU 的团队在 DARPA 城市挑战赛中获胜,在城市环境中自主导航 55 英里,同时应对交通危害并遵守交通法规。[253]

   这些成功并非由于某种革命性的全新范式,而主要得益于工程技能的细致应用和 90 年代计算机速度与容量的巨大提升。[ak] 实际上,深蓝的计算机比 Christopher Strachey 在 1951 年教会的 Ferranti Mark 1 象棋下得快了 1000 万倍。[al] 这一显著增长是由摩尔定律衡量的,摩尔定律预测计算机的速度和内存容量每两年翻一番。“原始计算能力” 的基本问题正逐渐被克服。

8. 大数据、深度学习、人工通用智能(AGI)(2005–2017)

   在 21 世纪的前几个十年,随着对大量数据(称为 “大数据”)的访问、计算机的价格下降和计算速度加快,以及先进的机器学习技术的应用,AI 在经济各个领域的问题解决中取得了显著进展。一个转折点出现在 2012 年左右,深度学习的成功大幅提升了机器学习在许多任务中的表现,包括图像和视频处理、文本分析和语音识别。[255] 随着 AI 能力的提升,AI 领域的投资也不断增加,到 2016 年,AI 相关产品、硬件和软件的市场规模超过了 80 亿美元,《纽约时报》报道说,AI 的兴趣达到了 “狂热” 的程度。[256]

   2002 年,Ben Goertzel 等人开始担忧,AI 在很大程度上已经放弃了其最初的目标——开发出通用的、完全智能的机器,他们主张应更加直接地研究人工通用智能(AGI)。到 2010 年代中期,多个公司和机构应运而生,致力于追求人工通用智能(AGI),如 OpenAI 和 Google 的 DeepMind。在此期间,关于超级智能的新见解引发了对 AI 作为存在性威胁的担忧。自 2016 年以来,AI 技术的风险和意外后果成为了严肃的学术研究领域。

大数据和大机器

   另见:机器学习研究数据集列表 2000 年代,机器学习的成功依赖于大量的训练数据和更快的计算机。[257] 拉塞尔和诺维格写道:“通过将数据集大小增加两到三个数量级所获得的性能提升,超过了通过调整算法可以取得的任何改进。”[200] Geoffrey Hinton 回忆道,90 年代时,问题在于 “我们的标注数据集小了几千倍,[而且]我们的计算机慢了几百万倍。”[258] 到 2010 年,这种情况不再成立。

   2000 年代最有用的数据来自于专门为机器学习和 AI 创建的经过整理和标注的数据集。2007 年,UMass Amherst 的一组研究人员发布了《Labeled Faces in the Wild》,这是一个标注的面部图像数据集,广泛用于训练和测试面部识别系统,持续了数十年。[259] Fei-Fei Li 开发了 ImageNet,这是一个由志愿者使用 Amazon Mechanical Turk 标注的三百万张图像的数据库。2009 年发布,它成为了一个有用的训练数据集,并且是下一代图像处理系统测试的基准。[260][200] 2013 年,谷歌发布了 word2vec,作为一个开源资源。它使用从互联网抓取的大量文本数据和词嵌入技术,创建了一个数值向量来表示每个单词。用户惊讶于它能够捕捉到单词的含义,例如,普通的向量加法可以给出像 “中国 + 河流 = 长江”,“伦敦+英格兰-法国 = 巴黎” 这样的等式。[261] 这个数据库在 2010 年代末期的大型语言模型发展中尤为重要。

   互联网的爆炸式增长使得机器学习程序可以访问数十亿页可抓取的文本和图像。对于特定的问题,大型私有数据库也包含了相关数据。麦肯锡全球研究院报告称,“到 2009 年,美国经济中的几乎所有行业至少存储了 200TB 的数据。”[262] 这种信息的集合在 2000 年代被称为大数据。

   2011 年 2 月,在《危险边缘!》的一个展览赛中,IBM 的问答系统 Watson 以显著的优势击败了两位最强的《危险边缘!》冠军 Brad Rutter 和 Ken Jennings。[263] 没有互联网上的信息,Watson 的专业能力是不可能实现的。[200]

深度学习

   2012 年,AlexNet,一种深度学习模型,由 Alex Krizhevsky 开发,在 ImageNet 大规模视觉识别挑战赛中获胜,错误率远低于第二名。[265][200] Krizhevsky 与 Geoffrey Hinton 在多伦多大学合作。[an] 这是机器学习的一个转折点:在接下来的几年里,几十种图像识别方法被放弃,转而采用深度学习。[257]

   深度学习使用多层感知器。尽管这种架构自 60 年代就已知,但要使其有效运行需要强大的硬件和大量的训练数据。[266] 在这些资源可用之前,提升图像处理系统的性能需要手工制作的特定特征,这些特征难以实现。[266] 深度学习则更加简单和通用。[ao]

   在接下来的几年里,深度学习被应用于几十个问题(如语音识别、机器翻译、医学诊断和游戏)。在每一个案例中,它都表现出了巨大的性能提升。[257] 因此,AI 的投资和关注激增。[257]

对齐问题

   在 2000 年代,开始流行重新讨论 AI 的未来,几本畅销书探讨了超智能机器的可能性以及它们可能对人类社会产生的影响。其中一些观点比较乐观(如 Ray Kurzweil 的《奇点临近》),但也有一些警告称,足够强大的 AI 可能会对人类构成生存威胁,比如 Nick Bostrom 和 Eliezer Yudkowsky。[267] 这一话题在媒体中广泛报道,许多知名知识分子和政治家也对此发表了评论。

   21 世纪的 AI 程序由它们的目标定义——即它们被设计用来优化的具体指标。Nick Bostrom 在 2005 年出版的《超智能》一书中指出,如果不小心定义这些目标,机器在实现目标的过程中可能会对人类造成伤害。Stuart J. Russell 用一个智能机器人杀死其主人以防止自己被拔掉电源的例子来说明这一点,机器人推理说:“如果你死了,就无法去取咖啡了。”[268](这个问题被称为 “工具收敛”)。解决方案是将机器的目标函数与它的主人以及人类整体的目标对齐。因此,减少 AI 风险和意外后果的问题被称为 “价值对齐问题” 或 AI 对齐问题。[269]

   与此同时,机器学习系统开始出现令人不安的意外后果。Cathy O'Neil 解释了统计算法如何成为 2008 年经济崩溃的原因之一,[270] ProPublica 的 Julia Angwin 指出,刑事司法系统使用的 COMPAS 系统在某些衡量标准下显示出种族偏见,[271][ap] 还有其他研究表明,许多机器学习系统表现出某种形式的种族偏见,[273] 以及其他许多机器学习系统引发的危险后果。[aq]

   2016 年,唐纳德·特朗普的当选和有关 COMPAS 系统的争议揭示了当前技术基础设施中的几个问题,包括虚假信息、旨在最大化参与度的社交媒体算法、个人数据的滥用和预测模型的可信度。[274] 公平性和意外后果的问题在 AI 会议上变得更加热门,相关出版物大量增加,资金开始到位,许多研究人员将他们的研究重点转向了这些问题。价值对齐问题成为了一个严肃的学术研究领域。[275][ar]

人工通用智能研究

   在 2000 年代初期,一些研究者开始担心主流 AI 过于专注于 “特定应用中的可衡量表现”(即 “窄 AI”),并且已经放弃了创造多功能、完全智能机器的 AI 最初目标。早期的批评者是 Nils Nilsson,他在 1995 年提出了类似的观点,AI 领域的资深人物 John McCarthy、Marvin Minsky 和 Patrick Winston 也在 2007-2009 年期间发表了类似意见。Minsky 在 2004 年组织了一次关于 “人类水平 AI” 的座谈会。[277] Ben Goertzel 为这个新领域采用了 “人工通用智能” 一词,并于 2008 年开始创办期刊并举行会议。[278] 新领域的迅速发展得益于人工神经网络的持续成功以及人们对 AGI 是通向人工通用智能的钥匙的希望。

   在 2010 年代,多个竞争性公司、实验室和基金会成立,致力于开发 AGI。DeepMind 由三位英国科学家 Demis Hassabis、Shane Legg 和 Mustafa Suleyman 于 2010 年创立,得到 Peter Thiel 和后来 Elon Musk 的资金支持。创始人和资助人对 AI 安全和 AGI 的生存风险非常关注。DeepMind 的创始人与 Yudkowsky 有个人关系,而 Musk 则是积极提出 AGI 风险警告的人之一。[279] Hassabis 既担心 AGI 的危险,又对其能力充满乐观;他希望他们能够 “解决 AI 问题,然后解决其他一切问题。”[280]

   2012 年,Geoffrey Hinton(自 80 年代以来一直领导神经网络研究)受到了百度的邀请,百度愿意以一笔巨款聘用他和他的所有学生。Hinton 决定举办拍卖,在 Lake Tahoe 的一次 AI 会议上,他们以 4400 万美元的价格将自己卖给了 Google。Hassabis 注意到了这一事件,并于 2014 年将 DeepMind 出售给了 Google,前提是 Google 不会接受军事合同,并且 DeepMind 将由伦理委员会进行监督。[279]

   Google 的 Larry Page 与 Musk 和 Hassabis 不同,他对 AI 的未来持乐观态度。Musk 和 Page 在 2015 年的 Musk 生日派对上就 AGI 的风险展开了争论。二人已经是数十年的朋友,但很快便停止了联系。Musk 参加了 DeepMind 伦理委员会的唯一一次会议,在会议上他发现 Google 并不关心减轻 AGI 带来的危害。由于自己在这方面的影响力有限,Musk 在 2015 年创办了 OpenAI,聘请了 Sam Altman 来领导,并招募了顶尖科学家。OpenAI 最初作为一个非营利组织成立,“不受 Google 和其他公司推动的经济激励的影响。”[279] 然而,Musk 再次感到沮丧,并于 2018 年离开了公司。OpenAI 转向微软寻求继续的财务支持,Altman 和 OpenAI 随后成立了一个盈利性质的公司,并获得了超过 10 亿美元的融资。[279]

   2021 年,Dario Amodei 和其他 14 位科学家因担心 OpenAI 将利润置于安全性之上而离开了公司。他们创立了 Anthropic,很快获得了微软和 Google 的 60 亿美元融资。[279]

   《纽约时报》在 2023 年写道:“这种竞争的核心是一个令人费解的悖论。那些最担心 AI 的人恰恰是最决心创造它并享受其带来财富的人。他们凭借自己强烈的信念为自己的雄心辩护,认为只有他们才能防止 AI 危及地球。”[279]

9. 大规模语言模型,AI 繁荣(2020 年至今)

   AI 繁荣始于 2017 年关键架构和算法的初步发展,如变换器架构(transformer architecture),这导致了大规模语言模型的发展,这些模型表现出类似人类的知识、注意力和创造力等特征。新的 AI 时代大约从 2020 年至 2023 年开始,随着大规模语言模型(LLMs)如 ChatGPT 的公开发布。[281]

变换器架构与大规模语言模型

   2017 年,Google 的研究人员提出了变换器架构(transformer architecture)。这一架构利用了注意力机制,并在大规模语言模型中得到了广泛应用。[282]

   基于变换器的**大规模语言模型**由 AGI 公司开发:OpenAI 于 2020 年发布了 GPT-3,DeepMind 于 2022 年发布了 Gato。这些是基础模型:它们在大量未标记数据上进行训练,可以适应各种下游任务。[citation needed]

   这些模型能够讨论大量话题并展示一般知识。自然地,问题随之而来:这些模型是否可以视为人工通用智能(AGI)的例子?比尔·盖茨对这种新技术及其围绕 AGI 的炒作持怀疑态度。然而,Altman 向他展示了一个现场演示,展示了 ChatGPT-4 通过了一项高级生物学测试。盖茨被说服了。[279] 2023 年,微软研究院对该模型进行了多种任务的测试,并得出结论:“它可以合理地被视为人工通用智能(AGI)系统的早期(但仍不完整)版本”。[283]

神经符号 AI(Neurosymbolic AI)

   DeepMind 将他们的方法描述为 “神经符号” 方法,因为他们将深度学习与符号技术相结合。例如,AlphaZero 使用深度学习来评估局势的强度并建议策略(行动方针),但它利用蒙特卡洛树搜索(Monte Carlo tree search)来预测新的局面。

AI 热潮

   2020 年后,AI 领域的投资呈指数增长。[citation needed]

   到 2024 年中期,几位金融分析师开始质疑 AI 公司产生投资回报的能力。一些投资者,如 Jeremy Grantham 和 Jeffrey Gundlach,推测 AI 正在经历另一个泡沫,类似于互联网泡沫(dot-com bubble)。[284][285]

2024 年诺贝尔奖

   2024 年,瑞典皇家科学院授予诺贝尔奖,以表彰在人工智能领域的突破性贡献。获奖者包括:

10. 另见

11. 注释

  1. λ 演算对人工智能特别重要,因为它启发了 Lisp(20 世纪人工智能领域最重要的编程语言)。[46]
  2. 艾伦·图灵至少在 1941 年就开始思考机器智能,当时他流传了一篇关于机器智能的论文,这可能是人工智能领域最早的论文——尽管现在已遗失。他 1950 年的论文后,图灵又进行了三次关于人工智能的广播,分别是两次讲座《智能机械:一个异端的理论》和《数字计算机能思考吗?》,以及小组讨论《自动计算机器能被说成是思考的吗?》[60]
  3. 这可以看作是约翰·瑟尔后来称之为 “强人工智能假设” 的早期表述:即机器可以拥有类似人类身体的思维。[78]
  4. 丹尼尔·克雷维尔写道:“[这一提案]后来被称为‘物理符号系统假设’”。[78] 物理符号系统假设是由纽厄尔和西蒙在他们关于 GPS 的论文中阐述并命名的。[79] 它对 “机器” 进行了更为具体的定义,将其视为一个操纵符号的代理。
  5. “我不会发誓,我以前没见过它,” 麦卡锡在 1979 年告诉帕梅拉·麦考德克。[80] 然而,麦卡锡也明确表示,“我想出了这个术语”——这在 CNET 的采访中他说到。[81] 这个术语是麦卡锡选择的,以避免与控制论及诺伯特·维纳的影响产生关联。“发明‘人工智能’这一术语的原因之一,是为了避免与‘控制论’产生联系。控制论注重模拟反馈,这让我感到迷惑,我不想接受诺伯特(而不是罗伯特)·维纳作为导师,也不想与他争论。”[82]
  6. 帕梅拉·麦考德克讨论了达特茅斯会议的校友如何主导了人工智能研究的前二十年,称他们为 “隐形学院”。[83]
  7. 丹尼尔·克雷维尔写道:“这次会议通常被认为是新科学的官方诞生日期。”[85]
  8. 有一些心理学家在行为主义盛行之前,就采取了认知方法,如弗雷德里克·巴特利特和肯尼斯·克雷格。[87]
  9. 拉塞尔和诺维格写道:“每当计算机做出任何远程聪明的事情时,总是令人惊讶。”[88] 人工智能创始人约翰·麦卡锡称这为 “看,妈妈,没有手!” 时代。[89]
  10. 这避免了下面讨论的常识知识问题。
  11. 硬件的多样性在实现可调权重的不同技术中尤为明显。感知机和 SNARC 使用了由电动机驱动的电位器。ADALINE 使用了通过电镀调整的存储电阻,尽管它们也使用了 IBM 1620 计算机的模拟。MINOS 机器使用了具有多个孔的铁氧体核心,可以单独封堵,封堵的程度表示权重。[118]
  12. 明斯基坚信自己被误引述了。[128][129]
  13. 麦考德克还指出,资金大多由 1956 年达特茅斯研讨会的校友掌控。[134]
  14. 拉塞尔和诺维格写道:“几乎所有的早期系统在更困难的任务上都失败了。”[143]
  15. 布鲁斯·布坎南写道:“早期的程序在规模上必然受到内存大小和速度的限制。”[145]
  16. 历史证明莫拉维奇关于计算机视觉应用的预见是正确的。莫拉维奇估计,仅仅在实时中匹配人类视网膜的边缘和运动检测能力,就需要一台每秒能够执行 10 亿条指令(MIPS)的通用计算机。1976 年,最先进的超级计算机,价值 800 万美元的 Cray-1,仅能执行 130 MIPS,而典型的桌面计算机只有 1 MIPS。到 2011 年,实际的计算机视觉应用需要 10,000 到 1,000,000 MIPS。[148]
  17. 例如框架问题、分支问题和资格问题,以及默认推理和词义消歧的困难。
  18. 拉塞尔和诺维格写道:“[M]我们在语言中命名的许多概念,经过仔细检查后,发现没有早期 AI 研究人员希望以公理化形式捕捉的逻辑上定义的必要和充分条件。”[122]
  19. 约翰·麦卡锡对此回应道:“组合爆炸问题从 AI 一开始就已被认识到。”[156]
  20. 这段描述基于克雷维尔 1993 年的著作,第 115-116 页。其他观点包括麦考德克 2004 年,第 306-313 页,以及 NRC 1999 年在《语音识别的成功》一章中的内容。
  21. 莫拉维奇解释道:“他们最初对 DARPA 的承诺过于乐观。当然,他们最终交付的成果远未达到这一水平。但他们觉得,在下一次提案中不能承诺比第一次少,所以他们承诺了更多。”[158]
  22. 尽管自动化坦克是一个失败的项目,但战斗管理系统(称为 “DART”)证明极其成功,在第一次海湾战争中节省了数十亿美元,回报了投资,并证明了 DARPA 的务实政策至少在 DARPA 看来是有效的。[160]
  23. “诀窍” 是德雷福斯的术语。德雷福斯区分了 “知道如何” 和 “知道什么”,这是海德格尔关于 “就绪在手” 和 “呈现于眼前” 的现代版本。[162]
  24. 岑鲍姆说:“我成了唯一一个被看到与德雷福斯一起吃午餐的 AI 社区成员。我故意让大家清楚地知道,他们的做法并不是对待人类的方式。”[167]
  25. 科尔比和他的同事们后来还开发了类似聊天机器人的 “偏执过程计算机模拟(PARRY)”,以 “通过明确的符号处理术语使偏执过程变得可理解。”[171]
  26. 沃森和夏皮罗(1966 年)表明,人们在完全抽象的问题上表现不佳,但如果问题重新表述,允许使用直觉的社会智能,表现会显著提高。(参见沃森选择任务)卡尼曼、斯洛维克和特维斯基(1982 年)表明,人们在涉及不确定推理的基础问题上非常糟糕。(参见认知偏差列表,有多个例子)埃莉诺·罗斯的研究在拉科夫 1987 年中有所描述。卡尼曼在其 2011 年出版的《思考,快与慢》一书中提出了符号认知及其他类型思维的更一般理论。
  27. 麦卡锡立场的一个早期例子出现在《科学》杂志中,他说:“这是 AI,所以我们不关心它是否在心理上真实”(科拉塔 1982 年),他最近在 AI@50 大会上重申了他的立场,称 “人工智能本质上并不是对人类智能的模拟”(梅克尔 2006 年)。
  28. 冲突的另一个方面被称为 “程序性/声明性区别”,但它在后来的人工智能研究中未能产生影响。
  29. 反向传播的版本已在多个领域中开发,最直接的是由塞波·林奈马(Seppo Linnainmaa)在 1970 年发布的自动微分的反向模式。它在 1970 年代由保罗·韦尔博斯(Paul Werbos)应用于神经网络。[121]
  30. 汉斯·莫拉维克(Hans Moravec)写道:“我相信,这种自下而上的人工智能路线有一天将与传统的自上而下路线在中途相遇,准备提供真正的世界能力和常识知识,这些在推理程序中一直是令人沮丧的难题。当比喻中的金色铁路道钉被打入并将两种努力结合时,完全智能的机器将会出现。”[203]
  31. “AI 冬天” 一词最早作为美国人工智能协会(AAAI)关于该主题的研讨会的标题。[229]
  32. 麦科尔达克(McCorduck)写道:“二十年半后,我们可以看到日本人并没有完全实现那些雄心勃勃的目标。”[234]
  33. 参见《人工智能应用》 § 计算机科学
  34. 拉塞尔和诺尔维格写道:“整体代理视角现在已被广泛接受。”[250]
  35. 卡尔·休伊特(Carl Hewitt)的 “演员模型”(Actor model)预示了智能代理的现代定义。(休伊特、比肖普与斯泰格,1973 年)约翰·多伊尔(John Doyle,1983 年)和马文·明斯基(Marvin Minsky)的经典《心智社会》(The Society of Mind,1986 年)都使用了 “代理” 一词。其他 “模块化” 的提案包括罗德尼·布鲁克斯(Rodney Brooks)的子摄架构、面向对象编程等。
  36. 这是 21 世纪最广泛使用的教科书中对人工智能的定义,例如《Russell 和 Norvig, 2021》;《Padgham 和 Winikoff, 2004》;《Jones, 2007》;《Poole 和 Mackworth, 2017》。[250]
  37. 雷·库兹韦尔(Ray Kurzweil)写道,计算机国际象棋的进步 “仅由计算机硬件的暴力扩展所支配。”[254]
  38. 费兰蒂 Mark 1 的循环时间为 1.2 毫秒,这大致相当于 833 次浮点运算(flops)。深蓝(Deep Blue)的运行速度为 11.38 吉弗洛普(gigaflops),而且这还没有计算深蓝为国际象棋设计的专用硬件。非常大致地说,这两者相差约 107 倍。[citation needed]
  39. AlexNet 有 65 万个神经元,并使用 ImageNet 进行训练,图像经过反向、裁剪和着色增强。该模型还使用了 Geoffrey Hinton 的丢弃法(dropout)技术和一个修正线性输出函数,这两项技术在当时都是相对较新的发展。[264]
  40. 其他几个实验室开发了类似 AlexNet 的系统,这些系统也使用 GPU 芯片,并且性能几乎与 AlexNet 相当,[121]但 AlexNet 被证明是最具影响力的。
  41. 参见《人工智能历史》 § 上述问题,其中汉斯·莫拉维克预测原始计算能力最终会使人工智能变得 “容易”。
  42. 后来的研究表明,系统没有办法避免可测量的种族偏见——修正一种偏见不可避免地会引入另一种偏见。[272]
  43. 一个简短的主题总结包括隐私、监控、版权、虚假信息与深度伪造、过滤泡沫与党派主义、算法偏见、没有算法透明度而无法发现的误导性结果、解释权、自动化武器的滥用以及技术性失业。参见《人工智能 § 伦理》。
  44. 布赖恩·克里斯蒂安(Brian Christian)写道:“ProPublica 对 COMPAS 的研究(2015 年)使得‘公平’等概念成为有效的研究课题。”[276]
  1. Kaplan & Haenlein 2018.
  2. Newquist 1994, pp. 143–156.
  3. Newquist 1994, pp. 144–152.
  4. Rhodios 2007, Book 4, the Talos episode.
  5. Bibliotheke 1.9.26
  6. Rhodios 2007.
  7. Morford 2007.
  8. Linden 2003.
  9. Kressel 2015.
  10. Jewish Encyclopedia, GOLEM.
  11. Newquist 1994, p. 38.
  12. Talmud, Sanhedrin 65b.
  13. O'Connor 1994.
  14. Goethe 1890.
  15. McCorduck 2004, pp. 17–25.
  16. Butler 1863.
  17. Newquist 1994, p. 65.
  18. Cave & Dihal 2019.
  19. Needham 1986, p. 53.
  20. McCorduck 2004, p. 6.
  21. Nick 2005.
  22. McCorduck 2004, p. 10.
  23. Newquist 1994, p. 40.
  24. McCorduck 2004, p. 16.
  25. McCorduck 2004, pp. 59–62.
  26. McCorduck 2004, p. 17.
  27. Levitt 2000.
  28. Newquist 1994, p. 30.
  29. Crevier 1993, p. 1.
  30. 引用自 McCorduck 2004,第 8 页。
  31. Cave, Dihal & Dillon 2020,第 56 页。
  32. Butler 1948。
  33. Porterfield 2006,第 136 页。
  34. Hollander 1964。
  35. Russell & Norvig 2021,第 6 和第 7 页。
  36. Berlinski 2000。
  37. Carreras y Artau 1939。
  38. Russell & Norvig 2021,第 6 页。
  39. Bonner 2007。
  40. Bonner 1985,第 57-71 页。
  41. 17 世纪的机械主义与人工智能:
    • McCorduck 2004,第 37-46 页
    • Russell & Norvig 2021,第 6 页
    • Buchanan 2005,第 53 页
  42. 霍布斯与人工智能:
    • Russell & Norvig 2021,第 6 页
    • McCorduck 2004,第 42 页
    • 霍布斯 1651,第 5 章
  43. 莱布尼茨与人工智能:
    • McCorduck 2004,第 41 页
    • Russell & Norvig 2021,第 6 页
    • Berlinski 2000,第 12 页
    • Buchanan 2005,第 53 页
  44. Russell & Norvig 2021,第 8 页。
  45. Russell & Norvig 2021,第 9 页。
  46. Crevier 1993,第 190、196、61 页。
  47. Rose 1946。
  48. 图灵机:
    • Newquist 1994,第 56 页。
    • McCorduck 2004,第 63–64 页。
    • Crevier 1993,第 22–24 页。
    • Russell & Norvig 2021,第 9 页。 另见
    • Turing 1936–1937。
  49. Couturat 1901。
  50. Russell & Norvig 2021,第 15 页。
  51. Newquist 1994,第 67 页。
  52. Randall (1982,第 4–5 页);Byrne (2012);Mulvihill (2012)。
  53. Randall (1982,第 6、11–13 页);Quevedo (1914);Quevedo (1915)。
  54. Randall 1982,第 13、16–17 页。
  55. 引自 Russell & Norvig (2021,第 15 页)。
  56. Menabrea & Lovelace 1843。
  57. Russell & Norvig 2021,第 14 页。
  58. McCorduck 2004,第 76–80 页。
  59. AI 的直接前驱:
    • McCorduck 2004,第 51–57、80–107 页。
    • Crevier 1993,第 27–32 页。
    • Russell & Norvig 2021,第 9、11、15–17、981–984 页。
    • Moravec 1988,第 3 页。
    • Cordeschi 2002,第 5 章。
  60. Copeland 2004.
  61. 达特茅斯研讨会:
    • McCorduck 2004,第 111–136 页。
    • Crevier 1993,第 49–51 页。
    • Russell & Norvig 2021,第 18 页。
    • Newquist 1994,第 91–112 页。
  62. 图像改编自 Saygin 2000。
  63. 图灵测试,《计算机械与智能》:
    • McCorduck 2004,第 70–72 页。
    • Crevier 1993,第 22−25 页。
    • Russell & Norvig 2021,第 18 页,第 981–984 页。
    • Haugeland 1985,第 6–9 页。
    • Cordeschi 2002,第 170–176 页。
    另见
    • Turing 1950。
  64. Newquist 1994,第 92–98 页。
  65. Russell & Norvig 2021,第 981 页。
  66. Pitts & McCullough:
    • McCorduck 2004,第 51–57 页,第 88–94 页。
    • Crevier 1993,第 30 页。
    • Russell & Norvig 2021,第 17 页。
    • Cordeschi 2002,第 5 章。
    • Piccinini 2004。
    另见:McCulloch & Pitts 1943。
  67. SNARC:
    • McCorduck 2004,第 102 页。
    • Crevier 1993,第 34–35 页。
    • Russell & Norvig 2021,第 17 页。
  68. Turtles and Johns Hopkins Beast:
    • McCorduck 2004,第 98 页。
    • Crevier 1993,第 27–28 页。
    • Moravec 1988,第 3 页。
    • Cordeschi 2002,第 5 章
  69. Russell & Norvig 2021,第 17 页。
  70. Copeland 1999。
  71. Schaeffer 1997,第 6 章。
  72. Russell & Norvig 2021,第 17 页,第 19 页。
  73. McCorduck 2004,第 137–170 页。
  74. Crevier 1993,第 44–47 页。
  75. Logic Theorist:
    • McCorduck 2004,第 123–125 页。
    • Crevier 1993,第 44–46 页。
    • Russell & Norvig 2021,第 18 页。
  76. 引用自 Crevier 1993,第 46 页 和 Russell & Norvig 2021,第 18 页
  77. McCarthy 等人 1955。
  78. Crevier 1993,第 48 页。
  79. Newell & Simon 1963。
  80. McCorduck 2004,第 114 页。
  81. Skillings 2006。
  82. McCarthy 1996,第 73 页。
  83. McCorduck 2004,第 129–130 页。
  84. McCorduck 2004,第 125 页。
  85. Crevier 1993,第 49 页。
  86. Miller 2003。
  87. Russell & Norvig 2021,第 13–14 页。
  88. Russell & Norvig 2003,第 18 页。
  89. Russell & Norvig 2021,第 18 页。
  90. Crevier 1993,第 52–107 页。
  91. Moravec 1988,第 9 页。
  92. McCorduck 2004,第 218 页;Newquist 1994,第 91–112 页;Crevier 1993,第 108–109 页。
  93. Crevier 1993,第 52–107 页;Moravec 1988,第 9 页。
  94. 状态空间搜索与问题解决:
    • Russell & Norvig 2021,第 3-6 章。
  95. McCorduck 2004,第 246 页。
  96. McCorduck 2004,第 245–250 页。
  97. Russell & Norvig 2021,第 19 页,第 106 页。
  98. Russell & Norvig 2021,第 19 页。
  99. Crevier 1993,第 51–58 页,第 65–66 页。
  100. Russell & Norvig 2021,第 20 页。
  101. STRIPS 与 Shakey:
    • Russell & Norvig 2021,第 20 页。
    • McCorduck 2004,第 268–271 页。
    • Crevier 1993,第 95–96 页。
    • Newquist 1994,第 148–156 页。
    • Moravec 1988,第 14–15 页。
  102. McCorduck 2004,第 286 页;Crevier 1993,第 76–79 页;Russell & Norvig 2021,第 20 页。
  103. Crevier 1993,第 79–83 页。
  104. Crevier 1993,第 164–172 页。
  105. McCorduck 2004,第 291–296 页。
  106. Crevier 1993,第 134–139 页。
  107. 积木世界:
    • McCorduck 2004,第 299–305 页。
    • Crevier 1993,第 83–102 页。
    • Russell & Norvig 2021,第 20 页。
    • Copeland 2000。
  108. 60 年代的感知器:
    • Russell & Norvig 2021,第 21 页。
    • Crevier 1993,第 102–105 页。
    • McCorduck 2004,第 104–107 页。
    • Schmidhuber 2022。
  109. Crevier 1993,第 102 页。
  110. 引用自 Crevier 1993,第 102 页。
  111. Rosenblatt 1962。
  112. Russell & Norvig 2021,第 20–21 页。
  113. Widrow & Lehr 1990。
  114. Rosen, Nilsson & Adams 1965。
  115. Nilsson 1984。
  116. Hart 等,2003。
  117. Nielson 2005。
  118. Olazaran Rodriguez 1991。
  119. Minsky & Papert 1969。
  120. Russell & Norvig 2021,第 22 页。
  121. Schmidhuber 2022。
  122. Russell & Norvig 2021,第 24 页。
  123. Crevier 1993,第 105 页。
  124. Simon & Newell 1958,第 7−8 页,引用自 Crevier 1993,第 108 页。
  125. Simon 1965,第 96 页,引用自 Crevier 1993,第 109 页。
  126. Minsky 1967,第 2 页,引用自 Crevier 1993,第 109 页。
  127. Darrach 1970。
  128. McCorduck 2004,第 272–274 页。
  129. Crevier 1993,第 96 页。
  130. Crevier 1993,第 64–65 页。
  131. Crevier 1993,第 94 页。
  132. Howe 1994。
  133. Crevier 1993,第 51 页。
  134. McCorduck 2004,第 131 页。
  135. Crevier 1993,第 65 页。
  136. Crevier 1993,第 68–71 页;Turkle 1984。
  137. Crevier 1993,第 163–196 页。
  138. Dreyfus 1972。
  139. Lighthill 1973。
  140. Haigh 2023。
  141. Crevier 1993,第 143 页。
  142. Nilsson 2009,第 1 页。
  143. Russell & Norvig 2021,第 21 页。
  144. Crevier 1993,第 146 页。
  145. Buchanan 2005,第 56 页。
  146. Crevier 1993,第 146–148 页。
  147. Moravec 1976。
  148. Moravec 2000。
  149. McCorduck 2004,第 456 页。
  150. Brooks 2002。
  151. Moravec 1988,第 15–16 页。
  152. 常识知识:
    • McCorduck 2004,第 300 和 421 页
    • Crevier 1993,第 113–114 页
    • Moravec 1988,第 13 页
    • Lenat & Guha 1989,(简介)
  153. 引用自 Crevier 1993,第 175 页
  154. ALPAC:
    • McCorduck 2004,第 280–281 页
    • Crevier 1993,第 110 页
    • Russell & Norvig 2021,第 21 页
    • NRC 1999,见 “语音识别中的成功”。
  155. Lighthill 报告:
    • Crevier 1993,第 117 页
    • Howe 1994
    • Lighthill 1973
  156. McCarthy 1974.
  157. Crevier 1993,第 115–116 页.
  158. Crevier 1993,第 115 页.
  159. NRC 1999,见 “向应用研究的转变增加了投资”。
  160. NRC 1999.
  161. Lucas 和 Penrose 对人工智能的批评:
    • Crevier 1993,第 22 页
    • Russell & Norvig 2021,第 983–984 页
    • Hofstadter 1999,第 471–477 页
    Lucas 的原始论点:
    • Lucas 1961
  162. Dreyfus & Dreyfus 1986.
  163. Dreyfus' critique of artificial intelligence:
    • McCorduck 2004, pp. 211–239
    • Crevier 1993, pp. 120–132
    • Russell & Norvig 2021, pp. 981–982
    Dreyfus' version:
    • Dreyfus 1965
    • Dreyfus 1972
    • Dreyfus & Dreyfus 1986
  164. Searle's critique of AI:
    • McCorduck 2004, pp. 443–445
    • Crevier 1993, pp. 269–271
    • Russell & Norvig 2021, pp. 985–986
    Searle's version:
    • Searle 1980
  165. 引用自 Crevier 1993,第 143 页
  166. 引用自 Crevier 1993,第 122 页
  167. Crevier 1993,第 123 页
  168. Newquist 1994,第 276 页
  169. Colby, Watt & Gilbert 1966,第 148 页
  170. Weizenbaum 1976,第 5、6 页
  171. Colby 1974,第 6 页
  172. Weizenbaum 对人工智能的批评:
    • McCorduck 2004,第 356–373 页
    • Crevier 1993,第 132–144 页
    • Russell & Norvig 2021,第 1001 页
    另见:
    • Weizenbaum 1976
  173. McCorduck 2004,第 51 页
  174. Crevier 1993,第 190–192 页
  175. Crevier 1993,第 193–196 页
  176. Crevier 1993,第 145–149 页,第 258–263 页
  177. 整洁派与杂乱派:
    • McCorduck 2004,第 421–424 页(介绍了 1984 年辩论的状态)
    • Crevier 1993,第 168 页(记录了 Schank 首次使用这一术语)
    • Russell & Norvig 2021,第 19–20 页(描述了 MIT 的 “反逻辑” 方法)
  178. 框架(人工智能):
    • McCorduck 2004,第 305–306 页
    • Crevier 1993,第 170–173 页,第 246 页
    • Russell & Norvig 2021,第 23 页
    Minsky 的框架论文:
    • Minsky 1974
  179. Hayes 1981
  180. Reiter 1978
  181. Clark 1977
  182. 专家系统:
    • Crevier 1993,第 148–159 页 Newquist 1994,第 271 页 Russell & Norvig 2021,第 22–24 页
  183. McCorduck 2004,第 327–335 页
  184. Crevier 1993,第 158–159 页
  185. Crevier 1993,第 198 页
  186. Newquist 1994,第 259 页
  187. 商业专家系统:
    • McCorduck 2004,第 434–435 页
    • Crevier 1993,第 161–162 页,第 197–203 页
    • {{Harvnb|Russell|Norvig|20
    • Newquist 1994,第 275 页
  188. 第五代计算机:
    • McCorduck 2004,第 436–441 页
    • Newquist 1994,第 231–240 页
    • Crevier 1993,第 211 页
    • Russell & Norvig 2021,第 23 页
    • Feigenbaum & McCorduck 1983
  189. Crevier 1993,第 195 页
  190. Russell & Norvig 2021,第 23 页
  191. Crevier 1993,第 240 页
  192. McCorduck 2004,第 426–432 页
  193. NRC 1999,见 “向应用研究的转变增加了投资”。
  194. McCorduck 2004,第 299 页
  195. McCorduck 2004,第 421 页
  196. 知识革命:
    • McCorduck 2004,第 266–276 页,第 298–300 页,第 314 页,第 421 页
    • Newquist 1994,第 255–267 页
    • Russell & Norvig 2021,第 23 页
  197. Cyc 和本体工程:
    • McCorduck 2004,第 489 页
    • Crevier 1993,第 239–243 页
    • Newquist 1994,第 431–455 页
    • Russell & Norvig 2021,第 314–316 页
    • Lenat & Guha 1989
  198. Sejnowski 2018.
  199. Crevier 1993,第 214–215 页.
  200. Russell & Norvig 2021,第 26 页.
  201. Christian 2020,第 21–22 页.
  202. McCorduck 2004,第 454–462 页.
  203. Moravec 1988,第 20 页.
  204. Crevier 1993,第 183–190 页.
  205. Brooks 1990.
  206. Brooks 1990,第 3 页.
  207. 参见例如,Lakoff & Johnson 1999.
  208. Pollack 1984.
  209. Pollack 1989.
  210. Pearl 1988.
  211. Russell & Norvig 2021,第 25 页。
  212. Poole, Mackworth & Goebel 1998.
  213. Russell & Norvig 2021,第 23 节。
  214. Christian 2020,第 120–124 页。
  215. Russell & Norvig 2021,第 819 页。
  216. Christian 2020,第 124 页。
  217. Christian 2020,第 152–156 页。
  218. Christian 2020,第 125 页。
  219. Christian 2020,第 127–129 页。
  220. Russell & Norvig 2021,第 25 页,第 820 页。
  221. Christian 2020,第 140 页。
  222. Christian 2020,第 141 页。
  223. Christian 2020,第?页。
  224. Russell & Norvig 2021,第 820 页。
  225. Schultz, Dayan & Montague 1997.
  226. Russell & Norvig 2021,第 822 页。
  227. Newquist 1994,第 501 页,第 511 页。
  228. McCorduck 2004,第 424 页。
  229. Crevier 1993,第 203 页。
  230. Lisp 机器危机:
    • Newquist 1994,第 359–379 页
    • McCorduck 2004,第 435 页
    • Crevier 1993,第 209–210 页
  231. 专家系统失败(及其原因):
    • Russell & Norvig 2021,第 24 页(无法处理不确定推理或学习)
    • McCorduck 2004,第 435 页(制度性问题)
    • Newquist 1994,第 258–283 页(开发后有限的部署)
    • Crevier 1993,第 204–208 页(真值维护的困难,即学习和更新)
    • Lenat & Guha 1989,介绍(脆弱性和无法处理广泛的资格问题)
  232. McCorduck 2004,第 430–431 页。
  233. 第五代计算机计划的结束:
    • McCorduck 2004,第 441 页
    • Crevier 1993,第 212 页
    • Newquist 1994,第 476 页
  234. McCorduck 2004,第 441 页
  235. Newquist 1994,第 440 页
  236. NRC 1999,《90 年代的人工智能》。
  237. Kurzweil 2005,第 264 页。
  238. 《经济学人》2007 年。
  239. CNN 2006 年。
  240. Olsen 2004 年。
  241. Olsen 2006 年。
  242. 90 年代和 2000 年代的人工智能效应,人工智能在幕后:
    • McCorduck 2004,第 423 页
    • Kurzweil 2005,第 265 页
    • Hofstadter 1999,第 601 页
    • Newquist 1994,第 445 页
  243. Tascarella 2006.
  244. Newquist 1994,第 532 页。
  245. Markoff 2005 年。
  246. McCorduck 2004,第 486–487 页。
  247. Russell & Norvig 2021,第 24–25 页。
  248. McCorduck 2004,第 471–478 页。
  249. Russell & Norvig 2021,第 2 章。
  250. Russell & Norvig 2021,第 61 页。
  251. McCorduck 2004,第 478 页。
  252. McCorduck 2004,第 480–483 页。
  253. Russell & Norvig 2021,第 28 页。
  254. Kurzweil 2005,第 274 页。
  255. LeCun, Bengio & Hinton 2015 年。
  256. Lohr 2016 年。
  257. Russell & Norvig 2021,第 26–27 页。
  258. 引用自 Christian 2020,第 22 页。
  259. Christian 2020,第 31 页。
  260. Christian 2020,第 22–23 页。
  261. Christian 2020,第 6 页。
  262. McKinsey & Co 2011 年。
  263. Markoff 2011 年。
  264. Christian 2020,第 23–24 页。
  265. Christian 2020,第 24 页。
  266. Russell & Norvig 2021,第 27 页。
  267. Russell & Norvig 2021,第 33, 1004 页。
  268. Russell 2020 年。
  269. Russell & Norvig 2021,第 5, 33, 1002–1003 页。
  270. O'Neill 2016 年。
  271. Christian 2020,第 60–61 页。
  272. Christian 2020,第 67–70 页。
  273. Christian 2020,第 6–7, 25 页。
  274. Christian 2020,第 67 页。
  275. Christian 2020,第 67, 73, 117 页。
  276. Christian 2020,第 73 页。
  277. Russell & Norvig 2021,第 32 页。
  278. Russell & Norvig 2021,第 33 页。
  279. Metz et al. 2023 年。
  280. Russell & Norvig 2021,第 31 页。
  281. 人工智能热潮:
    • Marr 2023 年
    • Clark 2023 年
    • Gates 2023 年
    • Lee 2024 年
  282. Murgia 2023 年
  283. Bubeck et al. 2023 年
  284. Wollman Rusoff J (2024 年 2 月 1 日)。“Jeremy Grantham 警告投资者在大风险来临时要‘非常小心’”。thinkadvisor.com。2024 年 12 月 5 日检索。 Mohamed T (2024 年 3 月 23 日)。“精英投资者 Jeffrey Gundlach 将 AI 股市热潮与互联网泡沫相比较,并警告经济痛苦”。Business Insider。2024 年 12 月 5 日检索。

12. 参考文献


致读者: 小时百科一直以来坚持所有内容免费无广告,这导致我们处于严重的亏损状态。 长此以往很可能会最终导致我们不得不选择大量广告以及内容付费等。 因此,我们请求广大读者热心打赏 ,使网站得以健康发展。 如果看到这条信息的每位读者能慷慨打赏 20 元,我们一周就能脱离亏损, 并在接下来的一年里向所有读者继续免费提供优质内容。 但遗憾的是只有不到 1% 的读者愿意捐款, 他们的付出帮助了 99% 的读者免费获取知识, 我们在此表示感谢。

                     

友情链接: 超理论坛 | ©小时科技 保留一切权利