The Wayback Machine - https://web.archive.org/web/20221026002632/https://baike.sogou.com/kexue/d10261.htm

人工智能

编辑

在计算机科学中,人工智能(AI)有时被称为机器智能,是由机器展示的智能,与人类和动物展示的自然智能形成对比。通俗地说,“人工智能”一词用来描述模仿人类与其他人类思维相关联的“认知”功能的机器,如“学习”和“解决问题”。[1]

随着机器变得越来越有能力,被认为需要“智能”的任务通常会从人工智能的定义中删除,这种现象被称为人工智能效应。[2] 特斯勒定理(Tesler's Theorem)中的一句妙语说:“人工智能是尚未完成的事情。”[3] 例如,光学字符识别经常被排除在人工智能之外,已经成为一种常规技术。现代机器能力通常被归类为人工智能,包括成功理解人类语言, 在战略游戏系统(如象棋和围棋)中处于最高水平的竞争, 自主操作汽车、内容传递网络中的智能路由以及军事模拟。

人工智能可以分为三种不同类型的系统:分析型、人类启发型和人性化人工智能。[4] 分析型人工智能只有与认知智能一致的特征;生成对世界的认知表示,并利用基于过去经验的学习来为未来的决策提供信息。人类启发的人工智能包含认知和情商的元素;除了认知因素之外,还要理解人类情感,并在决策中考虑它们。人性化人工智能显示了所有类型能力(即认知、情感和社会智能)的特征,能够自我意识,并在与他人的互动中自我意识。

人工智能于1956年作为一门学术学科创立,此后几年经历了几次乐观浪潮, 接着是失望和资金损失(被称为“人工智能冬天”), 接着是新的方法、成功和新的资金。 在其历史的大部分时间里,人工智能研究一直被划分为许多子领域,这些子领域之间往往无法相互沟通。[5] 这些子领域是基于技术考虑的,如特定目标(如“机器人学”或“机器学习”), 特定工具的使用(“逻辑”或人工神经网络),或深刻的哲学差异。 子领域也基于社会因素(特定机构或特定研究人员的工作)。[5]

人工智能研究的传统问题(或目标)包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵对象的能力。 一般智力是该领域的长期目标之一。 方法包括统计方法、计算智能和传统的符号人工智能。人工智能中使用了许多工具,包括搜索和数学优化、人工神经网络以及基于统计、概率和经济学的方法。人工智能领域借鉴了计算机科学、信息工程、数学、心理学、语言学、哲学和许多其他领域。

这个领域建立在人类智能“可以被如此精确地描述,以至于可以制造一台机器来模拟它”的主张之上。[6]这引发了关于创造具有类人智能的人工生命的思想本质和伦理道德的哲学争论,这些问题自古以来就被神话、小说和哲学所探索。有些人还认为人工智能如果发展势头不减,将对人类构成威胁。[7]其他人认为人工智能不同于以前的技术革命,它会带来大规模失业的风险。

在二十一世纪,随着计算机能力、大量数据和理论理解的同步发展,人工智能技术经历了一次复兴;人工智能技术已经成为技术产业的重要组成部分,有助于解决计算机科学、软件工程和运筹学中许多具有挑战性的问题。

1 历史编辑

Talos,一个具有人工智能的古老神话自动机

有思维能力的人造人在古代作为讲故事的工具出现, 在小说中也很常见,如玛丽·雪莱的《弗兰肯斯坦》或卡雷尔·切克的《机器人》(Mary Shelley's Frankenstein or Karel Čapek's R.U.R. (Rossum's Universal Robots))。[8] 这些角色和他们的命运引发了许多现在人工智能伦理学中讨论的相同问题。[9]

对机械或“形式”推理的研究始于古代的哲学家和数学家。对数学逻辑的研究直接导致了艾伦·图灵(Alan Turing)的计算理论,该理论认为,一台机器通过将简单到“0”和“1”的符号混在一起,可以模拟任何可以想象的数学推导行为。数字计算机可以模拟任何形式推理过程的这一见解被称为丘奇-图灵(Church–Turing)论题。[9] 随着神经生物学、信息论和控制论的同时发现,这使得研究人员考虑建立电子大脑的可能性。图灵提出,“如果一个人不能区分机器和人的反应,机器可以被认为是“智能的”。[10] 现在公认为人工智能的第一项工作是麦卡卢和皮茨(McCullouch and Pitts)1943年为图灵完成的“人工神经元”所进行的正式设计。[11]

人工智能研究领域诞生于1956年达特茅斯学院(Dartmouth College)的一个研讨会上。[12]与会者艾伦·纽厄尔(Attendees Allen Newell(CMU))、希尔伯特·西蒙(Herbert Simon (CMU))、约翰·麦卡锡(John McCarthy (MIT))、马文·明斯基(Marvin Minsky (MIT))和阿瑟·塞缪尔(Arthur Samuel (IBM))成为人工智能研究的创始人和领导者。[13]他们和他们的学生制作了被媒体描述为“惊人(astonishing)”的程序:[14]计算机正在学习跳棋策略(约1954年)[15](据报道,到1959年,计算机的水平已经超过了人类的平均水平),[16]解决代数中的字问题,证明逻辑定理(Logic Theorist,第一次运行约1956年)和说英语。[17]到20世纪60年代中期,美国的研究得到了国防部的大量资助,[18]世界各地都建立了实验室。[19]人工智能的创始人对未来持乐观态度:希尔伯特·西蒙预测,“机器将能够在20年内完成人类能够完成的任何工作”。马文·明斯基同意了,写道,“一代人之内……创造“人工智能”的问题将得到实质性解决”。[20]

他们没有意识到剩下的一些任务的困难。1974年,为了回应[20] 詹姆斯·莱特希尔(James Lighthill)爵士的批评和美国国会的持续施压,要求为更有成效的项目提供资金,美国和英国政府都切断了人工智能的探索性研究,因而进展缓慢。接下来的几年将被称为“人工智能冬天”,[21] 这是一个人工智能项目很难获得资金的时期。

20世纪80年代初,人工智能研究因专家系统的商业成功而复兴,[21] 专家系统是模拟人类专家知识和分析技能的人工智能程序的一种形式。到1985年,人工智能市场规模已经超过10亿美元。与此同时,日本的第五代计算机项目激励美国和英国政府恢复对学术研究的资助。[22] 然而,从1987年利普机器市场的崩溃开始,人工智能再次声名狼藉,第二次更持久的中断开始了。[22]

在20世纪90年代末和21世纪初,人工智能开始被用于物流、数据挖掘、医学诊断等领域。[22] 这一成功归功于计算能力的提高(见摩尔定律),研究者对人工智能解决特定问题产生了更大重视;人工智能与其他领域(如统计学、经济学和数学)之间也产生了新联系;且研究人员对数学方法和科学标准也有了新的共识。[22] 深蓝(Deep Blue)于1997年5月11日成为第一个击败卫冕世界象棋冠军加里·卡斯帕罗夫(Garry Kasparov)的计算机象棋系统。[23]

2011年,IBM的问答系统沃森(Watson),在“危险边缘”(Jeopardy)智力竞赛节目中以明显的优势,打败了两个伟大的节目冠军,布拉德·鲁特和肯·詹宁斯(Brad Rutter and Ken Jennings)。[24]更快的计算机、算法的改进和对大量数据的访问使得机器学习和感知能力有了进步;2012年左右,渴求数据的深度学习方法开始主导精度基准。[25]Kinect为Xbox 360和Xbox One提供了一个3D身体运动界面,像智能手机中的智能个人助理一样,它使用了通过长时间人工智能研究中产生的算法。[26][27]2016年3月,阿尔法围棋(AlphaGo)在与围棋冠军李世石 (Lee Sedol)的一场比赛中,赢了5局围棋中的4局,成为第一个无障碍击败职业围棋选手的电脑围棋系统。[28][28]在2017年围棋未来峰会上,阿尔法围棋(AlphaGo)与柯杰(Ke Jie)赢得了三场比赛,[29]柯杰当时连续两年蝉联世界第一。[30][31]这标志着人工智能发展的一个重要里程碑的完成,因为围棋是一种极其复杂的游戏,比国际象棋更复杂。

彭博社(Bloomberg)的杰克·克拉克(Jack Clark)称,2015年是人工智能的里程碑年,谷歌内部使用人工智能的软件项目数量从2012年的“零星使用”增加到2700多个项目。克拉克还提供了事实数据,表明自2011年以来,图像处理任务的错误率大幅下降。[32] 他将此归因于云计算基础设施的兴起以及研究工具和数据集的增加,使得负担得起的神经网络增多。[33] 其他被引用的例子包括微软开发的Skype系统,它可以自动从一种语言翻译成另一种语言,以及Facebook的系统,它可以向盲人描述图像。[32] 在2017年的一项调查中,五分之一的公司报告称他们“将人工智能纳入了一些产品或流程”。[33][34] 大约在2016年,中国大幅增加了政府资助;鉴于其大量的数据供应和快速增长的研究成果,一些观察人士认为,中国可能成为一个“人工智能超级大国”。[35][36]

2 定义编辑

计算机科学将人工智能研究定义为对“智能代理”的研究:任何感知其环境并采取最优行动使其有机会成功实现目标的设备。 一个更详细的定义将人工智能描述为“一个可以正确解释外部数据,从这些数据中学习,并利用这些学习通过灵活的适应提升实现特定目标和任务的能力的系统。”[37]

3 基础编辑

一个典型的人工智能会分析它所处的环境,并采取行动最大化它成功的机会。[38] 人工智能的一个预期效用函数(或目标)可以很简单(“如果人工智能赢了围棋,则为1,否则为0”),也可以很复杂(“在数学上做类似于过去成功的动作”)。目标可以明确定义,也可以归纳。如果人工智能是为“强化学习”而设计的,其目标可以通过奖励某些类型的行为或惩罚其他类型的行为来暗示。 或者,进化系统可以通过使用“适应度函数”变异并优先复制高分人工智能系统来诱导目标,类似于动物如何进化为天生渴望某些目标,例如寻找食物。[38] 一些人工智能系统,例如最近邻系统,不是通过类比推理,这些系统通常没有给定目标,除非目标隐含在它们的训练数据中。[39] 如果非目标系统被设计成一个其“目标”是成功完成其狭窄分类任务的系统,这样的系统仍然可以作为基准。[40]

人工智能通常围绕算法的使用展开。算法是一组机械计算机可以执行的明确指令。 复杂的算法通常建立在其他更简单的算法之上。下面是在井字游戏中一个简单的算法示例(第一个玩家的最优玩法):[41]

  1. 如果有人有“威胁”(也就是说,连续两个),选择剩下的方块。否则下一条,
  2. 如果一个动作“分叉”同时造成两个威胁,那么就执行这个动作。否则下一条,
  3. 如果中间的正方形是空的,就选择它。否则下一条,
  4. 如果你的对手已经占领了一个角落,那就占领对面的角落。否则下一条,
  5. 如果有空的角落,就选择它。否则,
  6. 选择任何空的正方形。

许多人工智能算法能够从数据中学习;他们可以通过学习新的启发式(策略或“经验法则”,这些在过去都很有效)来增强自己,或者自己编写其他算法。下面描述的一些“学习者”,包括贝叶斯网络、决策树和最近邻,理论上可以(给定无限的数据、时间和记忆)学习近似的任何函数,包括最能描述世界的数学函数组合。因此,这些学习者可以通过考虑每一个可能的假设并将其与数据相匹配来获得所有可能的知识。实际上,几乎不可能考虑每一种可能性,因为存在“组合爆炸”现象,即解决一个问题所需的时间呈指数级增长。人工智能的许多研究都涉及到如何识别和避免考虑各种不太可能受益的可能性。[42] 例如,当查看地图并寻找东部从丹佛到纽约的最短驾驶路线时,在大多数情况下,人们可以跳过查看穿过旧金山或其他远离西部地区的任何路径;因此,如果每一条可能的路线都必须依次考虑的话,使用像A*这样的寻路算法的人工智能可以避免组合爆炸。[43]

人工智能最早的(也是最容易理解的)方法是象征主义(如形式逻辑):“如果一个健康的成年人发烧了,那么他们可能得了流感”。第二种更普遍的方法是贝叶斯(Bayesian)推断:“如果当前患者发烧,就以这样那样的方式调整他们患流感的概率”。第三种主要方法,在日常商业人工智能应用中非常流行,如SVM和最近邻:“在检查了已知的过去病人的记录后,这些病人的体温、症状、年龄和其他因素与现在的病人大部分匹配,其中有10%的病人最终被证明患有流感”。第四种方法更难直观理解,但受到大脑机器工作方式的启发:人工神经网络方法使用人工“神经元”,通过将自身与所需输出进行比较并改变内部神经元之间的连接强度来“强化”似乎有用的连接,从而进行学习。这四种主要方法可以相互重叠,也可以与进化系统重叠;例如,神经网络可以学会做推论、归纳和类比。一些系统隐式或显式地使用这些方法中的多种以及许多其他人工智能和非人工智能算法;[44] 最佳的解决方法通常因问题而异。[45][46]

蓝线可能是由于随机噪声而过度拟合线性函数的示例

学习算法的基础是,过去运行良好的策略、算法和推理在未来可能会继续运行良好。这些推论是显而易见的,比如“在过去的10000天里,太阳每天早上都会升起,明天早上也可能会升起”。它们可能会有细微差别,比如“X%的家族在地理上有不同颜色的物种,所以存在未被发现的黑天鹅的可能性是Y%。学习算法也基于“奥卡姆剃刀(Occam's razor)”:解释数据的最简单的理论是最有可能的。因此,要想成功,学习者必须被设计成倾向简单的理论而不是复杂的理论,除非复杂的理论可以被证明比简单理论要好得多。建立在一个错误的、过于复杂的理论上,这种理论被不公平地划分来适应所有过去的训练数据,这就是所谓的过度拟合。许多系统试图通过根据理论与数据的吻合程度奖励理论来减少过度拟合,但是根据理论的复杂程度惩罚理论。[47] 除了经典的过度训练,学习者也可能因“听错了课”而失望。一个玩具例子是,一个只在棕色马和黑猫图片上训练的图像分类器可能会得出结论,所有棕色斑点都可能是马。[48]一个现实世界的例子是,与人类不同,当前的图像分类器不能确定图像成分之间的空间关系;相反,他们学习抽象的像素模式,而这些模式是人类遗忘的,但是与某些类型的真实物体的图像是线性相关。在合法图像上稍微叠加这样的图案会导致系统错误分类的“敌对”图像。[49][50][51]

自动驾驶汽车系统可以使用神经网络来确定图像的哪些部分似乎与行人的先前训练图像匹配,然后将这些区域建模为缓慢移动但有些不可预测的长方体且必须避免碰撞[17][18]

与人类相比,现有人工智能缺乏人类“常识推理”的几个特征;最值得注意的是,人类对于诸如空间、时间和物理交互等“朴素物理”有强大的推理机制。这使得即使是小孩子也能很容易地做出推论,比如“如果我把这支笔从桌子上滚下来,它就会掉到地板上”。人类也有一个强大的“民间心理学”机制,可以帮助他们解释自然语言句子,比如“市议会议员拒绝示威者的许可,因为他们提倡暴力”。(一个普通的人工智能很难推断是议员还是示威者被指控鼓吹暴力。)[52][53][54] 这种“常识”的缺乏意味着人工智能经常会犯与人类不同的错误,其方式似乎令人费解。例如,现有的自动驾驶汽车不能像人类那样精确地推理行人的位置和意图,而是必须使用非人类的推理模式来避免事故。[55][56]

4 问题编辑

人工智能的总体研究目标是创造允许计算机和机器以智能方式运行的技术。模拟(或创造)智力的一般问题已被分解成几个子问题。这些由研究人员期望智能系统显示的特定特征或能力组成。下面描述的特征是最受关注的。[57]

4.1 推理,解决问题

早期研究人员开发了模拟逐步推理的算法,人类在解决谜题或进行逻辑推理时使用这些算法。[57] 到20世纪80年代末和90年代,人工智能研究利用概率和经济学的概念,已经发展出处理不确定或不完整信息的方法。[58]

事实证明,这些算法不足以解决大型推理问题,因为它们经历了“组合爆炸”:随着问题变大,它们呈指数级变慢。[59] 事实上,即使人类也很少使用早期人工智能研究能够模拟的逐步演绎。他们用快速直观的判断来解决大部分问题。[59]

4.2 知识表达

知识表示[60]和知识工程[61]是经典人工智能研究的核心。一些“专家系统”试图收集专家在某个狭窄领域拥有的显性知识。此外,一些项目试图将普通人所知的“常识”收集到一个包含大量世界知识的数据库中。综合常识知识库包含的内容包括:对象、属性、类别和对象之间的关系;情况、事件、状态和时间;原因和影响;关于知识的知识(我们所知道的关于别人所知道的);和许多其他研究较少的领域。“存在”的表示是一个本体:一组正式描述的对象、关系、概念和属性,以便软件代理可以解释它们。这些语义被捕获为描述逻辑概念、角色和个体,并且通常在网络本体语言中实现为类、属性和个体。[62]最一般的本体被称为高级本体,它试图通过充当领域本体之间的中介来为所有其他知识提供基础,[63]所述领域本体涵盖关于特定知识领域(感兴趣的领域或关注的领域)的特定知识。这种形式知识表示可用于基于内容的索引和检索、[64]场景解释、[65]临床决策支持、知识发现(从大型数据库中挖掘“有趣的”和可操作的推理)[66]以及其他领域。[67]

本体将知识表示为域内的一组概念以及这些概念之间的关系

知识表示中最困难的问题包括:

默认推理和资格问题
人们知道的许多事情采取“工作假设”的形式。例如,如果一只鸟出现在谈话中,人们通常会想象一只拳头大小、会唱歌、会飞的动物。对于所有的鸟来说,这些都不是真的。约翰·麦卡锡(John McCarthy)在1969年将这个问题    [68] 确定为资格问题:对于人工智能研究人员愿意代表的任何常识性规则,都有大量的例外。按照抽象逻辑的要求,几乎没有什么是简单的真或假。人工智能研究已经探索了许多解决这个问题的方法。  
常识知识的广度
普通人知道的原子事实数量很大。试图建立完整的常识性知识库(例如Cyc)的研究项目需要大量费力的本体论工程——它们必须一次用手建立一个复杂的概念。    [69]
一些常识知识的亚符号形式
人们所知道的大部分并不是他们可以口头表达的“事实”或“陈述”。例如,象棋大师会避开特定的落棋位置,因为它“感觉太暴露”,    [70] 或者只要艺术评论家看一眼雕像,就能发现它是赝品。    [71] 这些是人类大脑中无意识和亚符号的直觉或倾向。    [72] 像这样的知识为象征性的、有意识的知识提供信息、支持和背景。如同亚符号推理的相关问题一样,人们希望情境人工智能、计算智能或统计人工智能将提供表示这种知识的方法。    [72]

4.3 规划

分层控制系统是一种控制系统形式,其中一组设备和管理软件以层次结构排列

智能代理必须能够设定目标并实现它们。[73]他们需要一种方法来想象未来——一种可以代表世界的状态,并且能够预测他们的行为将如何改变未来——并且能够做出最大化可用选择的效用(或“价值”)的选择。

在经典的规划问题中,代理可以假设它是世界上唯一起作用的系统,允许代理确定其行为的后果。[74] 然而,如果代理不是唯一的参与者,那么它要求代理能够在不确定性下推理。这就需要一个不仅能够评估其环境并做出预测,还能够评估其预测并根据其评估进行调整的代理。[75]

多智能体规划利用许多智能体的合作和竞争来实现给定的目标。进化算法和群体智能均使用这样的紧急行为。[76]

4.4 学习

机器学习(Machine learning)是人工智能研究领域自创立以来的一个基本概念,[77] 是对通过经验进行自动改进的计算机算法的研究。[78][79]

无监督学习是在输入流中找到模式的能力,而不需要人类先标记输入。监督学习包括分类和数值回归,这两种方法需要先人工标记输入数据。分类是指在程序从几个类别中看到一些例子之后,确定某样东西属于什么类别。回归是指试图产生一个函数来描述输入和输出之间的关系,并预测输出应该如何随着输入的变化而变化。[79] 分类器和回归学习者都可以被视为试图学习未知(可能是隐含)函数的“函数逼近者”;例如,垃圾邮件分类器可以看作是学习一个函数,该函数将电子邮件的文本映射到“垃圾邮件”或“非垃圾邮件”这两种类别中的一种。计算学习理论可以通过计算复杂性、样本复杂性(需要多少数据)或其他优化概念来评估学习者。[80] 在强化学习中,[81] 代理人因反应好而得到奖励,因反应差而受到惩罚。代理使用这一系列的奖励和惩罚来形成一个在其问题空间中进行操作的策略。

4.5 自然语言处理

解析树根据某种形式语法表示句子的句法结构

自然语言处理(NLP)[82] 赋予机器阅读和理解人类语言的能力。一个足够强大的自然语言处理系统将支持自然语言用户界面和直接从人类编写的资源中获取知识,如新闻专线文本。自然语言处理的一些直接应用包括信息检索、文本挖掘、问答[83] 和机器翻译。[84] 许多当前的方法使用单词共现频率来构建文本的句法表示。搜索的“关键词识别”策略是流行的、可扩展的,但是是愚蠢的;对“dog”的搜索查询可能只匹配文字单词“dog”的文档,而不匹配单词“poodle”的文档。“词汇相似性”策略使用诸如“意外”等词来评估文档的情感。现代统计自然语言处理方法可以将所有这些策略以及其他策略结合起来,并且通常在页面或段落级别上达到可接受的准确性,但是仍然缺乏对孤立句子进行良好分类所需要的语义理解能力。除了编码语义常识知识的困难之外,现有的语义NLP有时扩展性太差,在业务应用中不可行。除了语义NLP之外,“叙事”NLP的最终目标是体现对常识推理的全面理解。[85]

4.6 感知

特征检测(如图:边缘检测)帮助AI从原始数据中构成信息抽象结构

机器感知[86] 利用传感器(如摄像机(可见光谱或红外)、麦克风、无线信号和主动激光雷达、声纳、雷达和触觉传感器)的输入来推断世界各方面的能力。应用包括语音识别,[87] 面部识别和物体识别。[88] 计算机视觉是分析视觉输入的能力,这种输入通常是模糊的;一个50米高的巨型行人可能会产生与附近正常大小的行人完全相同的像素,这就要求人工智能判断不同解释的相对可能性和合理性,例如通过使用它的“对象模型”来评估50米高的行人不存在。[89]

4.7 运动和操纵

人工智能被广泛应用于机器人领域。[90] 现代工厂中广泛使用的先进机械臂和其他工业机器人可以从经验中学习如何在存在摩擦和齿轮打滑的情况下高效移动。 现代移动机器人,当给定一个小的、静态的和可见的环境时,可以很容易地确定它的位置并绘制它的环境地图;然而,动态环境,例如(内窥镜检查中)对患者呼吸体的内部的检测提出了更大的挑战。运动规划是将运动任务分解成“基本”的过程,例如单个关节运动。这种运动通常包括顺从运动,这种运动需要与物体保持物理接触。[91][92] 莫拉维克(Moravec)的悖论概括了人类认为理所当然的低级感觉运动技能,与直觉相反,很难编程为机器人;这个悖论是以汉斯·莫拉维克(Hans Moravec)的名字命名的,他在1988年指出,“让电脑在智力测试或下棋方面表现出成人水平的表现相对容易,而让它们具备一岁孩子的感知能力和行动能力,则是困难的,甚至是不可能的。”[93][94] 这是因为,数百万年来,身体灵活性一直是自然选择的直接目标,所以要实现感知和移动性方面的行为(不同于跳棋行为)是比较困难的。

4.8 社会智力

Kismet,一个具有基本社交技能的机器人[50]

莫拉维克的悖论可以延伸到许多形式的社会智力问题。[95][96] 自主车辆的分布式多智能体协调仍然是一个难题。[97]情感计算是一个包括识别、解释、处理或模拟人类情感系统的跨学科领域。[98][99][100] 与情感计算相关的微小成功案例包括文本情感分析,以及最近的多模态情感分析(参见多模态情感分析),其中人工智能将拍摄对象所显示的情感进行分类。[101]

从长远来看,社交技能以及对人类情感和博弈论的理解对社交代理人来说是有价值的。能够通过理解他人的动机和情绪状态来预测他人的行为将使代理人做出更好的决定。一些计算机系统模仿人类的情感和表达,对人类互动的情感动态更加敏感,或者以其他方式促进人机互动。[102] 类似地,一些虚拟助理被编程为能交谈,甚至可以幽默地开玩笑;这往往会让一些天真的用户对现有的计算机代理究竟有多智能产生不切实际的想法。[103]

4.9 通用智能(AGI)

历史上,像Cyc知识库(1984—)和大规模日本第五代计算机系统计划(1982—1992)这样的项目试图覆盖人类认知的广度。这些早期的项目未能逃脱非定量符号逻辑模型的限制,回想起来,大大低估了跨领域人工智能的难度。如今,绝大多数当前人工智能研究人员转而致力于可处理的“窄人工智能”应用(如医疗诊断或汽车导航)。[104] 许多研究人员预测,这种在不同个体领域工作的“狭义人工智能”最终将被整合到一台具有人工通用智能(AGI)的机器中,将本文中提到的大多数狭义技能结合在一起,在某些时候甚至会具有大多数或所有相关领域超越人类的能力。[105][105]许多进展具有普遍的、跨领域的意义。一个引人注目的例子是,DeepMind在2010年代开发了一种“广义人工智能”,它可以自己学习许多不同的雅达利游戏( Atari games),后来又开发了一种成功进行顺序学习的系统变体 。[106][107][108] 除了转移学习之外,[109] 假设性的AGI可以突破决策理论元推理的反射体系结构的开发限制,以及可以找出如何从整个非结构化网络中“汲取”一个全面的知识库。[110] 一些人认为某种(目前尚未发现的)概念上简单但数学上困难的“主算法”可能会导致AGI。[110] 最后,一些“紧急”方法看起来非常接近模拟人类智能,并且相信拟人化的特征(如人工大脑或模拟儿童发育),但是可能有一天会达到一般智能出现的临界点。[111]

如果机器能像人一样解决问题,本文中的许多问题也可能需要AGI。例如,即使是像机器翻译这样的特定的直接任务,也要求机器用两种语言读写(NLP),跟随作者的论点(原因),知道正在谈论什么(知识),并忠实地再现作者的原始意图(社会智能)。像机器翻译这样的问题被认为是“人工智能完成的”,因为所有这些问题都需要同时解决才能达到具有人类水平的机器性能。

5 方法编辑

没有既定的统一理论或范式来指导人工智能研究。研究人员在许多问题上意见不一。[112] 有几个长期悬而未决的问题是:人工智能应该通过研究心理学或神经生物学来模拟自然智能吗?或者,人类生物学与人工智能研究的关系,就像鸟类生物学与航空工程的关系一样?[113]智能行为可以用简单优雅的原则(如逻辑或优化)来描述吗?或者,这是否必然需要解决大量完全不相关的问题?[113]

5.1 控制论和大脑模拟

在20世纪40年代和50年代,许多研究者探索了神经生物学、信息论和控制论之间的联系。他们中的一些人建造了使用电子网络展示基本智力的机器,例如格雷·沃尔特的海龟和约翰·霍普金斯野兽(W. Grey Walter's turtles and the Johns Hopkins Beast)。许多研究人员聚集在普林斯顿大学的“目的论协会”和英国“比率俱乐部”的会议上。[113] 到了1960年,尽管它的一些要素将在1980年代恢复,但在当时这种方法基本上被放弃了。

5.2 符号的

20世纪50年代中期,当使用数字计算机成为可能时,人工智能研究开始探索人类智能被简化为符号操纵的可能性。这项研究集中在三个机构:卡内基梅隆大学、斯坦福大学和麻省理工学院,如下所述,每个机构都发展了自己的研究风格。约翰·豪格兰(John Haugeland)将这些人工智能的象征性方法命名为“好的老式人工智能”或“GOFAI”。[114] 在20世纪60年代,符号方法在模拟小型演示项目中的高级思维方面取得了巨大成功。基于控制论或人工神经网络的方法被抛弃或推到了后台。[115]20世纪60年代和70年代的研究人员相信,符号方法最终会成功地创造出具有人工智能的机器,并认为这是他们领域的目标。

认知模拟

经济学家希尔伯特·西蒙和艾伦·纽厄尔(Herbert Simon and Allen Newell)研究人类解决问题的技能,并试图将其形式化,他们的工作奠定了人工智能领域以及认知科学、运筹学和管理学的基础。他们的研究团队利用心理学实验的结果来开发模拟人们用来解决问题的技术的程序。这个传统以卡内基梅隆大学为中心,最终在20世纪80年代中期Soar建筑的发展中达到顶峰。[116][117]

基于逻辑的

与西蒙和纽维尔不同,约翰·麦卡锡认为机器不需要模拟人类的思维,而是应该尝试寻找抽象推理和解决问题的本质,不管人们是否使用相同的算法。[113] 他在斯坦福的实验室里专注于使用形式逻辑来解决各种各样的问题,包括知识表示、规划和学习。[118] 逻辑也是爱丁堡大学和欧洲其他地方工作的重点,这促进了编程语言Prolog和逻辑编程科学的发展。[119]

反逻辑或不符合逻辑的

麻省理工学院的研究人员(如马文·明斯基和西蒙·派珀特(Marvin Minsky and Seymour Papert))[120] 发现,解决视觉和自然语言处理中的难题需要特别的解决方案——他们认为没有简单和通用的原则(如逻辑)可以涵盖智能行为的所有方面。罗杰·沙克(Roger Schank)将他们的“反逻辑”方法描述为“scruffy”(与CMU和斯坦福的“neat”范例相反)。[113] 常识知识库(如道格·莱纳特(Doug Lenat)的Cyc)是“scruffy”人工智能的一个例子,因为它们必须手工构建,一次一个复杂的概念。[121]

基于知识的

当具有大内存的计算机在1970年左右出现时,来自这三个传统的研究人员开始将知识构建到人工智能应用中。[122] 这场“知识革命”导致了专家系统的开发和部署(由爱德华·费根鲍姆(Edward Feigenbaum)引入),这是第一款真正成功的人工智能软件。[123] 所有专家系统中的体系结构的一个关键组成部分就是知识库,它存储说明人工智能的事实和规则。[123] 知识革命也是通过认识到多个简单的人工智能同样需要大量知识储备的现象所驱动的。

5.3 子符号

到20世纪80年代,符号人工智能的进展似乎停滞不前,许多人认为符号系统永远无法模仿人类认知的所有过程,尤其是感知、机器人、学习和模式识别。许多研究人员开始研究解决特定人工智能问题的“亚符号”方法。[124] 子符号方法设法在没有特定知识表示的情况下接近智能。

具体化智能

这包括具体化的、情境化的、基于行为的和全新的人工智能。机器人学科相关领域的研究人员,如罗德尼·布鲁克斯(Rodney Brooks),拒绝符号人工智能,而专注于让机器人移动和生存的基本工程问题。[124] 他们的工作恢复了20世纪50年代早期控制论研究者的非符号观点,并重新引入了控制理论在人工智能中的应用。这与认知科学相关领域的体验思维理论的发展相一致:即身体的各个方面(如运动、感知和可视化)是更高智能所必需的。

在发展机器人学科中,发展性学习方法被详细阐述以允许机器人通过自主自我探索、与人类教师的社会互动以及使用指导机制(主动学习、成熟、运动协同等)来积累新技能的储备。[125][126][127][128]

计算智能和软计算

20世纪80年代中期,大卫·鲁梅尔哈特(David Rumelhart)等人重新对神经网络和“连接主义”产生了兴趣。[129] 人工神经网络是软计算的一个例子——它们是对无法完全采用逻辑确定性来解决问题所提出的方案,而近似的解决方案通常就足够了。人工智能的其他软计算方法包括模糊系统、灰色系统理论、进化计算和许多统计工具。软计算在人工智能中的应用是由新兴的计算智能学科共同研究的。[130]

5.4 统计学习

许多传统的GOFAI在符号计算的临时补丁上陷入困境,这些补丁在他们自己的玩具模型上起作用,但未能将其推广到现实世界。然而,在20世纪90年代左右,人工智能研究人员采用了复杂的数学工具,如隐马尔可夫模型(HMM)、信息论和规范贝叶斯决策理论来比较统一竞争的体系结构。共享的数学语言允许与更成熟的领域(如数学、经济学或运筹学)进行高水平的合作。 与GOFAI相比,新的“统计学习”技术(如隐马尔可夫模型和神经网络)在许多实际领域(如数据挖掘)中获得了更高的准确度,而不一定获得对数据集的语义理解。现实世界数据越来越成功,导致人们越来越重视将不同的方法与共享测试数据进行比较,以了解哪种方法在比特殊模型更广泛的背景下表现最佳;人工智能研究变得越来越科学。如今,实验结果往往是严格可测量的,有时(难以)重现。[131][131] 不同的统计学习技术有不同的局限性;例如,基本的隐马尔可夫模型不能模拟自然语言的无限可能组合。[132] 批评家指出,从GOFAI到统计学习的转变通常也是从可解释人工智能的转变。在AGI的研究中,一些学者告诫不要过度依赖统计学习,并认为继续研究GOFAI对于获得AGI仍然是必要的。[133][134]

5.5 整合方法

智能代理范例
智能代理是一个感知其环境并最大化其成功机会的系统。最简单的智能代理是解决特定问题的程序。更复杂的代理包括人和人的组织(如公司)。该范例允许研究人员通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立的问题。解决特定问题的代理可以使用任何有效的方法——一些代理是符号化的和逻辑化的,一些是亚符号化的人工神经网络,还有一些使用其他新的方法。这一范式也为研究人员提供了一种与其他领域交流的通用语言——如决策理论和经济学——这些领域也使用抽象主体的概念。构建一个完整的代理需要研究人员解决集成的现实问题;例如,因为感官系统给出了不确定的环境信息,所以规划系统必须能够在各种不确定的情况下运行。智能代理范式在20世纪90年代被广泛接受。    [135]

代理架构和认知架构
研究人员已经设计了一些系统,通过多智能体系统中的交互智能体来构建智能系统。    [136] 分级控制系统在最低反应级别的子符号人工智能和最高级别的传统符号人工智能之间提供了一个桥梁,在这种情况下,宽松的时间限制允许规划和世界建模。    [137] 一些认知架构是为解决一个狭窄的问题而定制的;其他的如soar是被设计来模仿人类的认知,并提供对一般智力的洞察。Soar的现代扩展是包括符号和子符号组件的混合智能系统。    [138]    [139]

6 工具编辑

人工智能已经开发了大量的工具来解决计算机科学中最困难的问题。下面讨论了这些方法中一些最常见的方法。

6.1 搜索和优化

人工智能中的许多问题可以通过智能搜索许多在理论上得到证实的潜在解决方案:[140] 推理可以简化为执行搜索。例如,逻辑证明可以被视为寻找从前提到结论的路径,其中每一步都是推理规则的应用。[141] 规划算法搜索目标树和子目标树,试图找到一条通向目标的路径,这一过程称为手段-目的分析。[142] 用于移动肢体和抓取物体的机器人算法使用配置空间中的局部搜索。[143] 许多学习算法使用基于优化的搜索算法。

简单详尽的搜索[143] 很少足以解决大多数现实世界的问题:搜索空间(要搜索的地方数量)迅速增长到天文数字。直接导致的结果是搜索速度太慢或者永远无法完成。对许多问题来说,解决方法是使用“启发式”或“经验法则”,将选择优先于更有可能达到目标的选择,并在更短的步骤中实现。在一些搜索方法中,启发式还可以完全消除一些不太可能导致目标的选择(称为“修剪搜索树”)。试探法为程序提供了解决方案所在路径的“最佳猜测”。[144] 试探法将对解决方案的搜索限制在较小的样本容量内。[145]

20世纪90年代,一种非常不同的基于最优化的数学理论搜索被提出。对于许多问题,可以从某种形式的猜测开始搜索,然后逐步完善猜测,直到无法再进行进一步的完善。这些算法可以被想象成盲目爬山:我们从风景上的一个随机点开始搜索,然后,通过跳跃或台阶,我们继续向上移动我们的猜测,直到到达山顶。其他优化算法有模拟退火、波束搜索和随机优化。[145]

寻求全局最小值的粒子群

进化计算使用一种优化搜索的形式。例如,它们可能从一群有机体(猜测)开始,然后允许它们变异和重组,只选择最适合的来存活每一代(完善猜测)。经典进化算法包括遗传算法、基因表达式编程和遗传编程。[146] 或者,分布式搜索过程可以通过群体智能算法进行协调。搜索中使用的两种流行的群体算法是粒子群优化算法(受鸟类群集的启发)和蚁群优化算法(受蚂蚁踪迹的启发)。[147][148]

6.2 逻辑

逻辑[149] 用于知识表示和问题解决,但它也可以应用于其他问题。例如,satplan算法使用逻辑进行规划[150] 归纳逻辑编程也是一种学习方法。[151]

人工智能研究中使用了几种不同形式的逻辑。命题逻辑[152] 涉及“或”和“不”等真理函数。一阶逻辑[153] 增加了量词和谓词,可以表达关于对象、对象属性以及它们之间关系的事实。模糊集合论将“真实程度”(介于0和1之间)赋予模糊的陈述,如“爱丽丝老了”(或富有,或高了,或饿了),这些陈述在语言上太不精确,以至于不能完全正确或错误。模糊逻辑成功地应用于控制系统中,允许专家贡献模糊的规则,例如“如果你靠近目的地站并且移动很快,就会增加列车的制动压力”;然后,这些模糊的规则可以在系统中进行数字细化。模糊逻辑在知识库中不能很好地扩展;许多人工智能研究者质疑链接模糊逻辑推理的有效性。[154][155]

默认逻辑、非单调逻辑和限定[156] 是用来帮助默认推理和限定问题的逻辑形式。逻辑的一些扩展已经被设计来处理特定的知识领域,例如:描述逻辑;[156] 情境演算、事件演算和流畅演算(用于表示事件和时间);[156] 因果演算;[156] 信念演算;[156] 和模态逻辑。[157]

总的来说,定性符号逻辑是脆弱的,并且在存在噪声或其他不确定性的情况下缩放性很差。规则的例外很多,逻辑系统在存在矛盾的规则时很难发挥作用。[157][158]

6.3 不确定推理的概率方法

老实泉喷发数据的期望最大化聚类从随机猜测开始,但随后成功地收敛于两种物理上不同的喷发模式的精确聚类

人工智能中的许多问题(推理、规划、学习、感知和机器人学)都要求智能体在信息不完整或不确定的情况下运行。人工智能研究人员已经设计了许多强大的工具,使用概率论和经济学的方法来解决这些问题。[159]

贝叶斯网络[160] 是一种非常通用的工具,可以用于大量问题:推理(使用贝叶斯推理算法),[161] 学习(使用期望最大化算法),[162] 规划(使用决策网络)[163] 和感知(使用动态贝叶斯网络)。[164] 概率算法也可以用于过滤、预测、平滑和寻找数据流的解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。[164] 与符号逻辑相比,形式贝叶斯推理计算量很大。为了便于推理,大多数观察结果必须有条件地相互独立。带有菱形或其他“环”(无向循环)的复杂图形可能需要一种复杂的方法,例如马尔可夫链蒙特卡罗(Markov chain Monte Carlo),这种方法将随机行走者的集合分布在贝叶斯网络中,并试图利用收敛条件进行概率的评估。Xbox Live使用贝叶斯网络对玩家进行评级和匹配;输和赢是球员有多优秀的“证据”。AdSense使用一个拥有3亿多条边界的贝叶斯网络来学习该为哪些广告服务。[157]

经济学中的一个关键概念是“效用”:衡量某样东西对一个智能代理有多有价值。已经开发了精确的数学工具,使用决策理论、决策分析,[165] 和信息价值理论[166] 来分析代理人如何做出选择和计划。[166] 这些工具包括马尔可夫决策过程、动态决策网络,[164] 博弈论和机制设计等模型。[167]

6.4 分类器和统计学习方法

最简单的人工智能应用可以分为两种类型:分类器(“如果闪亮,那么钻石”)和控制器(“如果闪亮,那么拾取”)。然而,控制器也在推断动作之前对条件进行分类,因此分类是许多人工智能系统的核心部分。分类器是使用模式匹配来确定最接近匹配的函数。它们可以根据例子进行调整,使得它们在人工智能中非常有吸引力。这些例子被称为观察或模式。在监督学习中,每个模式都属于某个预定义的类。一个类可以被看作是一个必须做出的决定。所有的观察结果和它们的类标签被称为数据集。当收到新的观察结果时,该观察结果将根据以前的经验进行分类。[168]

分类器可以用多种方式训练;有许多统计和机器学习方法。决策树[169]也许是使用最广泛的机器学习算法。[170]其他广泛使用的分类器有神经网络、[171]k最近邻算法、[172]核方法如支持向量机(SVM)、[173]高斯混合模型[174]和非常流行的朴素贝叶斯分类器。[175]分类器性能在很大程度上取决于要分类的数据的特征,例如数据集大小、样本在类中的分布、维度和噪声水平。如果假设的模型非常适合实际数据,则基于模型的分类器将会表现良好。否则,如果没有匹配模型可用,并且如果只考虑精度(而不是速度或可伸缩性),那么传统观点认为,在大多数实际数据集上,判别分类器(尤其是SVM)往往比基于模型的分类器更精确,例如“朴素贝叶斯”。[176][177]

6.5 人工神经网络

神经网络是一组相互连接的节点,类似于人脑中庞大的神经元网络

神经网络受人脑神经元结构的启发。一个简单的“神经元”N接受来自多个其他神经元的输入,当每个神经元被激活(或“激发”)时,对神经元N本身是否应该被激活投下加权“票”。学习需要算法根据训练数据来调整这些权重;一个简单的算法(称为“一起开火,一起连线”)是当一个神经元的激活触发另一个神经元的成功激活时,即增加两个相连神经元之间的权重。网络形成了分布在共享网络子网中的“概念”, 这些子网往往会一起着火;意思是“腿”的概念可能与包含“脚”的声音子网进行耦合。神经元有连续的激活光谱;此外,神经元可以以非线性方式处理输入,而不是简单地权衡选票。令人惊讶的是,现代神经网络既能学习连续函数,还能学习数字逻辑运算。神经网络的早期成功包括预测股票市场和(1995年)自动驾驶的汽车。[178] 在2010年代,使用深度学习的神经网络的进步推动人工智能进入广泛的公众意识,并促使企业人工智能支出大幅增加;例如,2017年与人工智能相关的企业并购额M&A比2015年大25倍以上。[179][180]

非学习人工神经网络的研究[171] 最早出现在人工智能研究领域建立之前的十年,由沃尔特·皮茨(Walter Pitts)和沃伦·麦卡鲁丘(Warren McCullouch)的工作完成。弗兰克·罗森布拉特(Frank Rosenblatt)发明了感知器,一种单层学习网络,类似于早期线性回归的概念。早期的先驱还包括阿列克谢·格里戈里耶维奇·伊万赫连科、特沃·科霍宁、斯蒂芬·格罗斯伯格、福岛昆尼希科、克里斯托夫·冯·德·马尔斯堡、戴维·威尔肖、阿马里顺一、伯纳德·维卓尔、约翰·霍普菲尔德、爱德华多·卡尼耶洛(Alexey Grigorevich Ivakhnenko, Teuvo Kohonen, Stephen Grossberg, Kunihiko Fukushima, Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari, Bernard Widrow, John Hopfield, Eduardo R. Caianiello)等。

网络的主要类别是无环或前馈神经网络(信号只沿一个方向传递)和递归神经网络(允许对以前的输入事件进行反馈和短期记忆)。最流行的前馈网络有感知器、多层感知器和径向基网络。[181] 神经网络可以应用于智能控制(机器人学)或学习的问题,使用诸如Hebbian这样的方法来学习(“一起开火,一起连线”)、GMDH或竞争学习等技术。[182]

今天,神经网络通常使用反向传播算法训练,该算法自1970年以来一直作为Seppo Linnainmaa出版的自动微分的反向模式存在,[183][184] 并由保罗·沃伯斯(Paul Werbos)引入神经网络。[185][186][187]

分层时间记忆是一种模拟大脑皮层的一些结构和算法特性的新方法。[188]

总而言之,大多数神经网络在手工创建的神经拓扑上使用梯度下降更新参数。然而,一些研究团体,如优步,认为简单的神经进化来更新神经网络拓扑和权重,可能与复杂的梯度下降方法竞争。神经进化的一个优势是它可能不容易陷入“死胡同”。[189]

深度前馈神经网络

深度学习是能够学习任何一长串因果联系的人工神经网络。例如,具有六个隐藏层的前馈网络可以学习七个因果链(六个隐藏层+输出层),并且具有七个“信用分配路径”(CAP)深度。许多深度学习系统需要能够学习长度为十个或更多因果联系的链。[190]深度学习改变了人工智能的许多重要子领域,包括计算机视觉、语音识别、自然语言处理等。[191][192][190]

据一篇综述称,[193] Rina Dechter在1986年将“深度学习”这个表述引入机器学习社区[194] ,并在2000年Igor Aizenberg及其同事将其引入人工神经网络后获得了广泛的关注。[195] 1965年,阿列克谢·格里戈里耶维奇·伊万赫连科和帕拉(Alexey Grigorevich Ivakhnenko and V. G. Lapa)发表了第一个实用的深度学习网络。[196] 这些网络一次训练一层。Ivakhnenko 1971年的论文[197] 描述了具有八层的深度前馈多层感知器的学习,该感知器已经比许多后来的网络更深。2006年,杰弗里·辛顿(Geoffrey Hinton)和鲁斯兰·萨拉库蒂诺夫(Ruslan Salakhutdinov)的一份出版物介绍了一次一层预训练多层前馈神经网络(FNs)的另一种方法,将每一层依次视为无监督的受限玻尔兹曼机器,然后使用有监督的反向传播进行微调。[198] 与浅层人工神经网络相似,深层神经网络可以模拟复杂的非线性关系。在过去的几年里,机器学习算法和计算机硬件的进步已经导致更有效的方法来训练包含许多层非线性隐藏单元和非常大的输出层的深层神经网络。[199]

深度学习经常使用卷积神经网络(CNNs),其起源可以追溯到1980年由福岛昆氏子(Kunihiko Fukushima)引入的新认知神经网络。[200]1989年,Yann LeCun和他的同事将反向传播应用到这种架构中。在21世纪初,在一个工业应用中,CNNs已经处理了美国大约10%到20%的现有支票。[201]自2011年以来,CNNs在图形处理器上的快速实现赢得了许多视觉模式识别竞赛。[190]

具有12个卷积层的CNNs被深度思维的“AlphaGo Lee”与强化学习结合使用,该程序在2016年击败了世界顶级围棋冠军。[202]

深层递归神经网络

早期,深度学习也被应用到递归神经网络的序列学习中[203],递归神经网络理论上是图灵完备的[204],可以运行任意程序来处理任意输入序列。RNN的深度是无限的,取决于其输入序列的长度;因此,RNN是深度学习的一个例子。[190]神经网络可以通过梯度下降进行训练[205][206][207],但会遇到梯度消失的问题。[191][208]1992年,研究表明,对一堆递归神经网络进行无监督的预训练可以加速对深层序列问题的后续监督学习。[209]

许多研究人员现在使用一种叫做长短期记忆(LSTM)网络的递归神经网络的变体,该网络由Hochreiter & Schmidhuber于1997年发表。[210]LSTM接受CTC(Connectionist Temporal Classification)按时间分类的训练。[211]在谷歌、微软和百度,这种方法彻底改变了语音识别。[212][213][214]例如,在2015年,通过接受CTC训练的LSTM,谷歌的语音识别性能大幅提升了49%,现在数十亿智能手机用户可以通过谷歌语音获得这一服务[215]。谷歌还利用LSTM改善机器翻译[216]、语言建模[217]和多语言语言处理[218]。LSTM与CNNs的结合也改善了自动图像字幕[219]和大量其他的应用。

6.6 评估进展

人工智能,像电或蒸汽机一样,是一种通用技术。对于人工智能倾向于擅长哪些任务,人们还没有达成共识。[220]虽然阿尔法零号(AlphaZero)等项目已经成功地从头开始生成自己的知识,但许多其他机器学习项目需要大量的训练数据集。[221][222]研究者吴恩达提出,作为一个“非常不完善的经验法则”,“常人用几乎不到一秒钟的思维做的任何事情,我们现在或者在不久的将来都可以使用人工智能实现自动化”。[223]莫拉维克的悖论表明,人工智能在许多任务上落后于人类,而人类大脑正是为了更好地完成这些任务而进化的。[224]

游戏为评估进展速度提供了一个广为人知的基准。阿尔法围棋大约在2016年结束了经典棋盘游戏基准的时代。知识不完善的博弈在博弈论领域给人工智能提出了新的挑战。[224][225]星际争霸等电子竞技继续提供额外的公共基准。[226][227]有许多比赛和奖项,如图像挑战赛,以促进人工智能的研究。最常见的竞争领域包括通用机器智能、会话行为、数据挖掘、机器人汽车、机器人足球以及传统游戏。[228]

“模仿游戏”(对1950年图灵测试的一种解释,该测试评估计算机是否能模仿人类)如今被认为太容易被利用,不能作为有意义的基准。[229]图灵测试的衍生产品是全自动公共图灵测试,用于区分计算机和人类(CAPTCHA)。顾名思义,这有助于确定用户是真实的人,而不是冒充人的计算机。与标准图灵测试相反,验证码是由机器管理并以人为目标,而不是由人管理并以机器为目标。计算机要求用户完成一个简单的测试,然后为该测试生成一个分数。计算机无法解决这个问题,所以正确的解决方案被认为是一个人参加测试的结果。验证码的一种常见类型是要求输入扭曲的字母、数字或符号的测试,这些字母、数字或符号出现在计算机无法识别的图像中。[230]

提议的“通用智能”测试旨在比较机器、人类、甚至非人动物在尽可能通用的问题集上的表现。在极端情况下,测试套件可以包含所有可能的问题,用Kolmogorov复杂度加权;不幸的是,这些问题集往往被贫乏的模式匹配练习所主导,在这些练习中,调整后的人工智能很容易超过人类的表现水平。[231][232]

7 应用程序编辑

在网页上提供客户服务的自动在线助理 是人工智能的许多非常原始的应用程序之一

人工智能与任何智力任务都相关。[233] 现代人工智能技术无处不在,不胜枚举。通常,当一项技术达到主流用途时,它不再被认为是人工智能;这种现象被描述为人工智能效应。[234]

人工智能引人注目的例子包括无人驾驶汽车(如dronesand self-driving cars)、医疗诊断、创造艺术(如诗歌)、证明数学定理、玩游戏(如象棋或围棋)、搜索引擎(如谷歌搜索)、在线助手(如Siri)、照片中的图像识别、垃圾邮件过滤、预测航班延误,[235] 预测司法判决[236] 和锁定在线广告。[233][237][238]

随着社交媒体网站取代电视成为年轻人的新闻来源,新闻机构越来越依赖社交媒体平台进行发布,[239] 主要出版商现在使用人工智能技术更有效地发布故事,并产生更高的流量。[240]

7.1 卫生保健

Da Vinci手术系统的患者侧手术臂

人工智能正被应用于剂量问题的高成本问题——研究结果表明人工智能可以节省160亿美元。2016年,加州的一项开创性研究发现,在人工智能的帮助下开发的数学公式正确地确定了给予器官患者的免疫抑制剂药物的准确剂量。[241] 人工智能正在通过帮助医生进入医疗保健行业。据彭博科技报道,微软开发了人工智能来帮助医生找到正确的癌症治疗方法。[242]有大量与癌症相关的研究和药物开发。具体来说,有800多种治疗癌症的药物和疫苗。这对医生产生了负面影响,因为有太多的选择,使得为病人选择合适的药物更加困难。微软正在开发一种叫做“汉诺威”的机器。它的目标是记住癌症所需的所有论文,并帮助预测哪种药物组合对每个患者最有效。目前正在进行的一个项目是抗击髓细胞性白血病,这是一种致命的癌症,几十年来治疗没有改善。据报道,另一项研究发现,人工智能在识别皮肤癌方面与训练有素的医生一样好。[243]另一项研究是使用人工智能来尝试和监控多个高风险患者,这是通过基于从现场医生那里获得的数据向每个患者询问大量问题来完成的。[244]其中一项研究是通过转移学习完成的,该机器执行的诊断类似于训练有素的眼科医生,并且可以在30秒内做出是否应该推荐患者接受治疗的决定,准确率超过95%。[245]

手的X射线,可以通过计算机软件自动计算骨龄

据美国有线电视新闻网报道,华盛顿儿童国家医疗中心的外科医生最近的一项研究成功展示了用自主机器人进行手术。该团队声称,在机器人进行软组织手术时,他们对其进行监督,在开放手术中缝合猪的肠道,并且做得比人类外科医生更好。[246] IBM创造了自己的人工智能计算机——国际商用机器公司沃森(IBM Watson),它在某些层面上击败了人类智能。沃森不仅在游戏节目《危险边缘》(Jeopardy!)对阵前冠军中获胜,[247]而且成功诊断出一名患有白血病的女性,随后他被宣布为英雄。[248]

7.2 汽车领域

人工智能的进步通过自动驾驶汽车的创造和发展为汽车工业的发展做出了贡献。截至2016年,有超过30家公司利用人工智能创造无人驾驶汽车。一些参与人工智能的公司包括特斯拉、谷歌和苹果。[249]

许多部件有助于自动驾驶汽车的运行。这些车辆包括制动、换道、防撞、导航和绘图等系统。这些系统以及高性能计算机一起集成到一个复杂的车辆中。[250]

自动汽车的最新发展使自动驾驶卡车的创新成为可能,尽管它们仍处于测试阶段。英国政府已通过立法,从2018年开始测试自动驾驶卡车排。[251] 自动驾驶卡车排是跟随一辆非自动驾驶卡车的自动驾驶卡车车队,所以卡车排还不是完全自主的。与此同时,德国汽车公司戴姆勒公司正在测试一种只能在高速公路上使用的半自主卡车——货运灵感(Freightliner Inspiration)。[252]

影响无人驾驶汽车运行能力的一个主要因素是绘制地图。一般来说,车辆将被预先编程为具有行驶区域的地图。该地图将包括路灯和路缘高度近似值的数据,以便车辆了解周围环境。然而,谷歌一直在研究一种算法,目的是消除对预编程地图的需求,而是创造一种能够适应各种新环境的设备。[253] 一些自动驾驶汽车没有配备方向盘或制动踏板,因此也有研究集中于创建一种算法,该算法能够通过意识到速度和驾驶条件来为车辆中的乘客维持安全的环境。[254]

另一个影响无人驾驶汽车性能的因素是乘客的安全。为了制造无人驾驶汽车,工程师必须对其进行编程,以应对高风险情况。这些情况可能包括与行人正面碰撞。汽车的主要目标应该是做出一个避免撞到行人并挽救车上的乘客的决定。但是汽车有可能需要做出一个会使人处于危险中的决定。换句话说,汽车需要决定拯救行人或乘客。[255] 在这些情况下,汽车的编程对于成功的无人驾驶汽车至关重要。

7.3 财经

金融机构长期以来一直使用人工神经网络系统来检测超出正常范围的指控或索赔,为人类调查标记这些指控或索赔。人工智能在银行业的应用可以追溯到1987年,当时美国安全太平洋国家银行成立了一个反欺诈特别工作组,以打击未经授权使用借记卡的行为。卡西托(Kasisto)和金钱流(Moneystream)等项目正在金融服务中使用人工智能。

如今,银行使用人工智能系统来组织运营、维护簿记、投资股票和管理财产。人工智能可以在一夜之间或业务不进行时对变化做出反应。[256] 2001年8月,机器人在模拟金融交易比赛中击败了人类。[257] 人工智能还通过监控用户的行为模式来减少欺诈和金融犯罪。[258]

人工智能机器在市场中的应用,如在线交易和决策,已经改变了主要的经济理论。[259] 例如,基于人工智能的买卖平台改变了供求规律,因为现在可以很容易地估计个性化的需求和供应曲线,从而进行个性化定价。此外,人工智能机器减少了市场中的信息不对称,从而使市场更加高效,同时减少了交易量。此外,市场中的人工智能再次限制了市场行为的后果,使市场更加高效。人工智能产生影响的其他理论包括理性选择、理性预期、博弈论、刘易斯转折点、投资组合优化和反事实思维。

7.4 政府

7.5 电子游戏

在电子游戏中,人工智能通常用于在非玩家角色中产生动态的有目的行为。此外,众所周知的人工智能技术通常用于寻路。一些研究人员认为游戏中的NPC人工智能对于大多数生产任务来说是一个“已解决的问题”。具有更不典型人工智能的游戏包括《Left 4 Dead》(2008)的人工智能总监和《Supreme Commander 2》(2010)的神经进化训练。[260][261]

7.6 军事

全球机器人技术的年度军费开支从2010年的51亿美元增加到2015年的75亿美元。[262][263] 能够自主行动的军用无人机被广泛认为是一种有用的资产。[264] 但是,出于和平,许多人工智能研究人员试图远离人工智能的军事应用。[265]

7.7 审计

对于财务报表审计,人工智能使持续审计成为可能。人工智能工具可以立即分析多组不同的信息。潜在的好处是总体审计风险将降低,保证水平将提高,审计时间将缩短。[266]

7.8 广告

使用人工智能从客户的数字足迹中预测或概括他们的行为是可能的,以便通过个性化促销或自动构建客户角色来锁定他们。[267] 一个记录在案的案例报告称,在线赌博公司正在使用人工智能来提高客户定位。[268]

此外,人格计算人工智能模型的应用可以通过在更传统的社会人口统计或行为目标中增加心理目标来帮助降低广告活动的成本。[269]

7.9 艺术

人工智能已经激发了许多创造性的应用,包括它用于生产视觉艺术。现代艺术博物馆的展览“思维机器:1959-1989年计算机时代的艺术和设计”[270]提供了人工智能在艺术、建筑和设计方面的历史应用的良好概述。最近展示人工智能在艺术创作中的应用的展览包括谷歌赞助的旧金山灰区基金会(Gray Area Foundation)的收益和拍卖,艺术家们在那里试验了深梦算法(deepdream),[271]并于2017年秋季在洛杉矶和法兰克福举办了展览“人类:人工智能时代的艺术”。[272][273]2018年春天,计算机机械协会专门发行了一期以计算机和艺术为主题的杂志,突出了机器学习在艺术中的作用。[274]

8 哲学和伦理编辑

有三个与人工智能相关的哲学问题:

1.通用人工智能可能吗?机器能解决人类利用智能能解决的任何问题吗?或者机器能完成的工作有严格的限制吗?

2.智能机器危险吗?我们如何确保机器的行为符合道德规范,并且它们的使用符合道德规范?

3.机器能有和人类完全一样的思维、意识和精神状态吗?机器能有感知力,从而获得某些权利吗?机器会故意造成伤害吗?

    8.1 人工智能的极限

    机器能智能吗?它能“思考”吗?

    艾伦·图灵的“礼貌惯例”
    我们不需要决定一台机器是否能“思考”;我们只需要决定机器是否能像人类一样聪明。这种处理与人工智能相关的哲学问题的方法构成了图灵测试的基础。    [275]

    达特茅斯(Dartmouth)提案
    “学习的每个方面或智能的任何其他特征都可以被如此精确地描述,以至于可以制造一台机器来模拟它。”这个猜想被印在1956年达特茅斯会议的提案中,代表了大多数人工智能研究人员的立场。    [276]

    纽厄尔和西蒙(Newell and Simon)的物理符号系统假说
    "物理符号系统具有一般智能行为的必要和充分的手段."纽厄尔和西蒙认为,智力由对符号的形式运算组成。    [277] 休伯特·德雷福斯(Hubert Dreyfus)认为,恰恰相反,人类的专长依赖于无意识的本能,而不是有意识的符号操纵,依赖于对情况的“感觉”,而不是明确的符号知识。(见德雷福斯(Dreyfus' critique of AI)对人工智能的评论)    [278]    [279]

    哥德里安(Gödelian)论点
    哥德尔(Gödel)本人,    [280] 约翰·卢卡斯(John Lucas)(1961年)和罗杰·彭罗斯(Roger Penrose)(1989年以后的一篇更详细的论述)提出了高度技术性的论点,认为人类数学家能够始终如一地看到他们自己的“哥德尔陈述”的真相,因此具有超越机械图灵机的计算能力。    [281] 然而,科学界和数学界的现代共识是,这些“哥德式论点”失败了。    [282]    [283]    [284]

    人工大脑的争论
    大脑可以被机器模拟,因为大脑是智能的,所以模拟的大脑也必须是智能的;因此,机器可以是智能的。汉斯·莫拉维克、雷·库兹韦尔(Hans Moravec, Ray Kurzweil)和其他人认为,将大脑直接复制到硬件和软件中在技术上是可行的,这样的模拟将与原始模拟基本相同。    [285]

    人工智能效应
    机器已经很智能了,但是观察者没有意识到这一点。深蓝在国际象棋中击败加里·卡斯帕罗夫时,这台机器表现得很聪明。然而,旁观者通常对人工智能程序的行为不屑一顾,认为它毕竟不是“真正的”智能;因此,“真正的”智能是人们可以做的智能行为,而机器仍然做不到。这就是所谓的人工智能效应:“人工智能是尚未完成的事情。”

    8.2 潜在危害

    人工智能的广泛使用可能会带来意想不到的危险或不良后果。生命未来研究所的科学家描述了一些短期研究目标,以了解人工智能如何影响经济、与人工智能相关的法律和伦理,以及如何将人工智能安全风险降至最低。从长远来看,科学家们建议继续优化功能,同时将新技术带来的可能安全风险降至最低。[285]

    人工智能和自动化的潜在负面影响是杨安泽(Andrew Yang)总统竞选的一个主要问题。[286]

    存在风险

    物理学家斯蒂芬·霍金(Stephen Hawking)、微软创始人比尔·盖茨(Bill Gates)和SpaceX创始人埃隆·马斯克(Elon Musk)对人工智能可能进化到人类无法控制的程度表示担忧,霍金认为这可能“意味着人类的终结”。 [287] [288] [289]

    全人工智能的发展可能意味着人类的终结。一旦人类开发出人工智能,它将自行起飞,并以越来越快的速度重新设计自己。受缓慢生物进化限制的人类无法竞争,将被取代。

    ——Stephen Hawking [290]

    尼克·博斯特罗姆(Nick Bostrom)在其著作《超级智能》(Superintelligence)中提出了人工智能将对人类构成威胁的论点。他认为,足够聪明的人工智能,如果它选择基于实现某个目标的行动,将表现出趋同的行为,如获取资源或保护自己不被关闭。如果人工智能的目标没有反映人类的目标——例如,人工智能被告知计算尽可能多的π位数——它可能会伤害人类,以便获得更多的资源或防止自己被关闭,最终更好地实现其目标。

    对人工智能风险的担忧导致了一些高调的捐赠和投资。包括彼得·泰尔(Peter Thiel)、亚马逊网络服务(Amazon Web Services)和马斯克(Musk)在内的一群杰出的科技巨头已经向OpenAI公司投资了10亿美元,这是一家旨在支持负责任的人工智能开发的非营利公司。[291]人工智能领域的专家意见不一,相当一部分人对最终超人类能力人工智能的风险既关心又不关心。[292]其他科技行业的领导者认为人工智能在目前的形式下是有帮助的,并将继续帮助人类。甲骨文首席执行官马克·赫德(Oracle CEO Mark Hurd)表示,人工智能“实际上会创造更多的工作,而不是更少的工作”,因为管理人工智能系统需要人类[293]。Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)认为人工智能将“释放出大量积极的东西”,比如治愈疾病和提高无人驾驶汽车的安全性。[294]

    2015年1月,埃隆·马斯克(Elon Musk)向生命未来研究所捐赠了一千万美元,用于资助理解人工智能决策的研究。该研究所的目标是“增长智慧,以此来管理”不断增长的技术力量。马斯克还资助开发人工智能的公司,如谷歌深度思维和替代公司,以“关注人工智能的发展情况。[295] 我认为那里有潜在的危险结果。"[296][297]

    要想意识到这种危险,假设人工智能将不得不压倒或超越整个人类,少数专家认为这种可能性在很远的将来,不值得研究。[298][299] 从人工智能的角度来看,其他的反驳围绕着人类的内在价值或聚合价值展开。[300]

    人性的贬值

    约瑟夫·韦森鲍姆(Joseph Weizenbaum)写道,根据定义,人工智能应用程序无法成功模拟真正的人类同理心,在客户服务或心理治疗等领域[301] 使用人工智能技术被严重误导。韦岑鲍姆还感到困扰的是,人工智能研究人员(和一些哲学家)愿意把人类的思维仅仅看作是一个计算机程序(这一立场现在被称为计算主义)。对韦岑鲍姆来说,这些观点表明人工智能研究贬低了人类生命。[302]

    社会正义

    一个担忧是人工智能程序可能被编程为对某些群体有偏见,比如女性和少数民族,因为大多数开发者是富裕的高加索男性。[303]男性(47%赞成)对人工智能的支持高于女性(35%赞成)。

    算法在当今的法律体系中已经有了大量的应用,可以帮助法官、假释官和公设辩护人等官员评估被告再次犯罪的可能性。[304]COMPAS(替代制裁的罪犯管理概况的缩写)是最广泛使用的商业解决方案之一。[304]有人认为,COMPAS认为黑人被告的再犯风险特别高,而白人被告的再犯风险则出乎意料地低。[305]

    对人力需求的减少

    自动化和就业之间的关系很复杂。虽然自动化消除了旧工作,但它也通过微观经济和宏观经济效应创造了新工作。[306]与以前的自动化浪潮不同,许多中产阶级的工作可能会被人工智能淘汰;《经济学人》指出,“有人担心人工智能会像工业革命期间蒸汽动力对蓝领工人所做的那样对白领工作造成影响”,这是“值得认真对待的”。[307]对风险的主观估计差异很大;例如,迈克尔·奥斯本(Michael Osborne)和卡尔·贝内迪克特·弗雷(Carl Benedikt Frey)估计,47%的美国工作处于潜在自动化的“高风险”,而经合组织的一份报告仅将9%的美国工作归类为“高风险”。[308][309][310]风险极高的工作范围从律师助理到快餐厨师,而从个人医疗保健到神职人员等护理相关专业的工作需求可能会增加。[311]作家马丁·福特等人则更进一步,他们认为,大量工作都是例行公事、重复性的,而且(对人工智能来说)是可预测的;福特警告说,这些工作可能在未来几十年内实现自动化,许多新工作即使再培训,“能力一般的人也可能无法获得”。经济学家指出,在过去,技术倾向于增加而不是减少总就业,但是他们也承认,人工智能令“我们处在未知的领域”。[312]

    自主武器

    目前,50多个国家正在研究战场机器人,包括美国、中国、俄罗斯和英国。许多担心超智能人工智能风险的人也想限制人工士兵和无人机的使用。[312]

    8.3 伦理机器

    具有智能的机器有潜力利用它们的智能来防止伤害和最小化风险;他们可能有能力运用伦理推理来更好地选择他们在世界上的行为。这一领域的研究包括机器伦理、人工道德代理和友好的人工智能。

    工道德代理人

    温德尔·沃勒赫(Wendell Wallach)在他的著作《沃勒赫的道德机器》中引入了人工道德代理人(AMA)[313]的概念,对于沃勒赫来说,AMAs已经成为人工智能研究领域的一部分,它的两个核心问题是“人类希望计算机做出道德决策吗”[314]和“机器人真的有道德吗”。[315]对沃勒赫来说,这个问题的核心并不是机器是否能表现出与道德行为相当的行为,而是社会对AMAs发展的限制。[316]

    机器伦理

    机器伦理的领域是给予机器伦理原则,或发现解决他们可能遇到的伦理困境的方法的程序,使他们能够通过自己的伦理决策以伦理负责的方式运作。[317]该领域在2005年AAAI秋季机器伦理研讨会上有所描述:“过去关于技术和伦理之间关系的研究主要集中在人类对技术负责任和不负责任的使用上,只有少数人对人类应该如何对待机器感兴趣。在所有情况下,只有人类参与了伦理推理。现在是时候给至少一些机器增加道德维度了。认识到涉及机器的行为的伦理后果,以及机器自主性的最近和潜在发展,这是必要的。与计算机黑客行为、软件财产问题、隐私问题和其他通常归属于计算机伦理的话题不同,机器伦理关注的是机器对人类用户和其他机器的行为。机器伦理的研究是减轻对自主系统的担忧的关键——可以说,没有这种维度的自主机器的概念是所有关于机器智能的恐惧的根源。此外,对机器伦理的研究能够发现当前伦理理论的问题,推进我们对伦理的思考。”[318]机器伦理有时被称为机器道德、计算伦理或计算道德。这个新生领域的各种观点可以在2005年AAAI秋季机器伦理研讨会[318]收录的《机器伦理》中找到[317]

    恶意友好的人工智能

    政治学家查尔斯·鲁宾(Charles T. Rubin)认为人工智能既不能被设计也不能保证是仁慈的。[319] 他认为,“任何足够先进的善举都可能无法与恶意区分开来。”人类不应该假设机器或机器人会善待我们,因为没有先验的理由相信它们会同情我们的道德体系,而道德体系是随着我们特定的生物学而进化的(人工智能不会分享)。超智能软件可能不一定决定支持人类的继续存在,而且极难阻止。这个话题最近也开始在学术出版物上讨论,它是文明、人类和地球面临风险的真正来源。

    解决这一问题的一个建议是确保第一个普遍智能的人工智能是“友好人工智能”,然后能够控制随后开发的人工智能。有些人质疑这种检查是否真的能继续存在。

    首席人工智能研究员罗德尼·布鲁克斯(Rodney Brooks)写道,“我认为担心我们在未来几百年的任何时候发展恶意人工智能都是错误的。我认为,这种担忧源于一个根本错误,即没有区分人工智能某个特定方面的最新进展与构建有知觉的意志智能的巨大复杂性之间的区别。”[320]

    8.4 机器意识、感觉和头脑

    如果人工智能系统复制了人类智能的所有关键方面,那么这个系统会是有意识的吗——它会有一个有意识体验的头脑吗?这个问题与关于人类意识本质的哲学问题密切相关,通常被称为意识的难题。

    意识

    大卫·查尔莫斯(David Chalmers)发现了理解思维的两个问题,他称之为意识的“困难”和“容易”问题。[321]简单的问题是理解大脑如何处理信号、制定计划和控制行为。困难的问题是如何解释这种感觉,或者为什么会有这种感觉。人类的信息处理很容易解释,然而人类的主观经验却很难解释。

    例如,考虑一下当一个人看到一个色样,并识别说出“它是红色”时,会发生什么。这个简单的问题只需要理解大脑机制就可以让一个人知道色样是红色的。困难的问题是人们还知道别的东西——他们也知道红色是什么样子。(假设一个天生失明的人可以知道某样东西是红色的,却不知道红色是什么样子。) 每个人都知道主观经验的存在,因为他们每天都这样做(例如,所有有视力的人都知道红色是什么样子)。困难的问题是解释大脑是如何创造它的,为什么它会存在,以及它是如何不同于知识和大脑的其他方面。

    计算主义和功能主义

    计算主义是心灵哲学中的一种立场,即人思想或人脑(或两者)是一个信息处理系统,思维是计算的一种形式。[322] 计算主义认为,身心之间的关系类似于或等同于软件和硬件之间的关系,因此可能是身心问题的一个解决方案。这一哲学立场受到人工智能研究人员和认知科学家在20世纪60年代工作的启发,最初由哲学家杰里·福多尔和希拉里·普特南(Jerry Fodor and Hilary Putnam)提出。

    强人工智能假设

    约翰·塞尔(John Searle)称之为“强人工智能”的哲学立场是:“具有正确输入和输出的适当编程的计算机将拥有与人类拥有思维完全相同的思维。”[323] 塞尔用他的“中文房间”论点反驳了这一论断,“中文房间”论点要求我们查看电脑内部,并试图找到“大脑”可能在哪里。[324]

    机器人权利

    如果能创造出一台具有智能的机器,它还会有感觉吗?如果它能感觉到,它有和人类一样的权利吗?这个现在被称为“机器人权利”的问题,目前正在由加州未来研究所进行研究,尽管许多批评家认为讨论还为时过早。[325]一些对超人类主义的批评者认为,任何假设的机器人权利都属于动物权利和人权的范畴。[326]这个主题在2010年的纪录片《插头与祈祷》(Plug & Pray)[327]和许多科幻媒体如《星际迷航下一代》(Star Trek Next Generation)中有深刻的讨论,其中的角色是指挥官Data(Commander Data)为研究而战斗,并希望“成为人类”,以及《航海家》(Voyager)中的机器人全息图。

    8.5 超智能

    智能机器——或人机混合——有极限吗?超智能、高智能或超高智能是一种假设的智能体,其拥有的智能远远超过最聪明和最有天赋的人类大脑。超智能也可以指这种机器所拥有的智能形式或智能程度。[328]

    技术奇点

    如果对强大的人工智能的研究能生产出足够智能的软件,它也许能够重新编程和改进自己。改进后的软件会更擅长自我改进,从而实现递归自我改进。[328]因此,新的智能可以指数级增长,并显著超过人类。科幻作家凡尔纳·文奇(Vernor Vinge)将这一场景命名为“奇点”。[329]技术奇点是指加速技术进步将导致失控效应,其中人工智能将超过人类的智力能力和控制能力,从而从根本上改变甚至终结文明。因为这样一种智能的能力可能无法理解,因此技术奇点是一种不可预测甚至深不可测的事件。[329][328]

    雷·库兹韦尔(Ray Kurzweil)利用摩尔定律(描述了数字技术的无情指数进步)计算出,到2029年,台式计算机将拥有与人脑相同的处理能力,并预测奇点将出现在2045年。[329]

    转人道主义

    机器人设计师汉斯·莫拉维克(Hans Moravec)、控制论专家凯文·沃里克(Kevin Warwick)和发明家雷·库兹韦尔(Ray Kurzweil)预测,人类和机器将在未来融合成比两者都更有能力、更强大的机器人。[330] 这个想法被称为跨人类主义,起源于阿尔多斯·赫胥黎(Aldous Huxley)和罗伯特·艾丁格(Robert Ettinger.)。

    爱德华·弗莱德金(Edward Fredkin)认为“人工智能是进化的下一个阶段”,这一想法早在1863年就由塞缪尔·巴特勒(Samuel Butler)的《机器中的达尔文》(Darwin among the Machines)中首次提出,乔治·戴森在1998年同名著作中对此进行了扩展。[331]

    9 经济学编辑

    人工智能的长期经济影响是不确定的。一项对经济学家的调查显示,对于机器人和人工智能的日益使用是否会导致长期失业率大幅上升,经济学家们存在不同意见,但他们普遍认为,如果生产率的提高得到重新分配,这可能是一种净收益。[332]

    10 在小说中编辑

    “机器人”这个词本身就是由KarelČapek在他1921年的戏剧“R.U.R”中创造的,该片名为“Rossum's Universal Robots"

    有思维能力的人造生物自古以来就作为讲故事的工具出现,[333]并且一直是科幻小说中的一个永恒主题。

    这些作品中的一个常见比喻始于玛丽·雪莱的《弗兰肯斯坦》(Mary Shelley's Frankenstein),在这部小说中,人类的创造成为对主人的威胁。这些作品包括亚瑟·C·克拉克(Arthur C. Clarke)和斯坦利·库布里克(Stanley Kubrick)的《2001年:太空漫游(A Space Odyssey)》(都于1968年出版),哈尔(HAL)9000,它是负责探索一号宇宙飞船的杀人计算机,以及《终结者(The Terminator)》(1984年)和《黑客帝国(The Matrix)》(1999年)。相比之下,像《地球静止之日(The Day the Earth Stood)》(1951年)中的高特和《异形(Aliens)》中的毕晓普(Bishop)(1986年)这样罕见的忠诚机器人,在流行文化中并不突出。[333]

    艾萨克·阿西莫夫(Isaac Asimov)在许多书籍和故事中介绍了机器人三定律,最著名的是关于同名超智能计算机的“Multivac”系列。阿西莫夫定律经常在外行人讨论机器伦理时被提出来;[334] 虽然几乎所有人工智能研究人员都通过流行文化熟悉阿西莫夫定律,但他们通常认为这些定律没有用,原因有很多,其中之一就是它们的模糊性。[335]

    《攻壳机动队(Ghost in the Shell)》和科幻系列小说《沙丘(Dune)》探索了人类与机器的融合。20世纪80年代,艺术家哈吉姆·索拉雅玛(Hajime Sorayama)的性感机器人系列在日本被绘制并出版,描绘了真实的有机人类形态,带有逼真的肌肉金属皮肤,随后《菊三七(the Gynoids)》一书被乔治·卢卡斯(George Lucas)等电影制作人使用,或受到他们的影响。索拉雅玛(Sorayama)从未认为这些有机机器人是自然的真实部分,而是人类思维的非自然产物,即使以实际形式实现,这种幻想也存在于头脑中。

    有几部作品使用人工智能迫使我们直面“是什么让我们成为人类”这一基本问题,向我们展示了人造生物,它们有感知的能力,因此也有受苦的能力。这出现在卡雷尔·恰佩克(Karel Čapek)的《苏联(R.U.R)》、电影《人工智能(A.I. Artificial Intelligence)》和《机械姬(Ex Machina)》以及菲利普·K·迪克(Philip K. Dick)的小说《银翼杀手(Do Androids Dream of Electric Sheep)。迪克认为,我们对人的主体性的理解被人工智能创造的技术改变了。[336]

    11 解释性说明编辑

    1. The act of doling out rewards can itself be formalized or automated into a "reward function".
    2. Terminology varies; see algorithm characterizations.
    3. Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
    4. While such a "victory of the neats" may be a consequence of the field becoming more mature, AIMA states that in practice both neat and scruffy approaches continue to be necessary in AI research.
    5. "There exist many different types of uncertainty, vagueness, and ignorance... [We] independently confirm the inadequacy of systems for reasoning about uncertainty that propagates numerical factors according to only to which connectives appear in assertions."[337]
    6. Expectation-maximization, one of the most popular algorithms in machine learning, allows clustering in the presence of unknown latent variables[338]
    7. The most widely used analogical AI until the mid-1990s[339]
    8. SVM displaced k-nearest neighbor in the 1990s[340]
    9. Naive Bayes is reportedly the "most widely used learner" at Google, due in part to its scalability.[341]
    10. Each individual neuron is likely to participate in more than one concept.
    11. Steering for the 1995 "No Hands Across America" required "only a few human assists".
    12. This is based on Mary's Room, a thought experiment first proposed by Frank Jackson in 1982

    参考文献

    • [1]

      ^Russell & Norvig 2009, p. 2..

    • [2]

      ^McCorduck 2004,第204页.

    • [3]

      ^Maloof, Mark. "Artificial Intelligence: An Introduction, p. 37" (PDF). georgetown.edu..

    • [4]

      ^Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1).

    • [5]

      ^Pamela McCorduck(2004, pp. 424) writes of "the rough shattering of AI in subfields—vision, natural language, decision theory, genetic algorithms, robotics ... and these with own sub-subfield—that would hardly have anything to say to each other.".

    • [6]

      ^See the Dartmouth proposal, under Philosophy, below..

    • [7]

      ^"Stephen Hawking believes AI could be mankind's last accomplishment". BetaNews. 21 October 2016. Archived from the original on 28 August 2017..

    • [8]

      ^AI in early science fiction. McCorduck 2004,第17–25页.

    • [9]

      ^This is a central idea of Pamela McCorduck's Machines Who Think. She writes: "I like to think of artificial intelligence as the scientific apotheosis of a venerable cultural tradition." (McCorduck 2004,p.34) "Artificial intelligence in one form or another is an idea that has pervaded Western intellectual history, a dream in urgent need of being realized." (McCorduck 2004,p.xviii) "Our history is full of attempts—nutty, eerie, comical, earnest, legendary and real—to make artificial intelligences, to reproduce what is the essential us—bypassing the ordinary means. Back and forth between myth and reality, our imaginations supplying what our workshops couldn't, we have engaged for a long time in this odd form of self-reproduction." (McCorduck 2004,p.3) She traces the desire back to its Hellenistic roots and calls it the urge to "forge the Gods." (McCorduck 2004,pp.340–400).

    • [10]

      ^"Artificial Intelligence." Encyclopedia of Emerging Industries, edited by Lynn M. Pearce, 6th ed., Gale, 2011, pp. 73–80. Gale Virtual Reference Library, http://go.galegroup.com/ps/anonymous?id=GALE%7CCX1930200017. Accessed 31 Mar. 2018..

    • [11]

      ^Russell & Norvig 2009, p. 16..

    • [12]

      ^Dartmouth conference: McCorduck 2004,第111–136页 Crevier 1993,第47–49页, who writes "the conference is generally recognized as the official birthdate of the new science." Russell & Norvig 2003,第17页, who call the conference "the birth of artificial intelligence." NRC 1999,第200–201页.

    • [13]

      ^Hegemony of the Dartmouth conference attendees: Russell & Norvig 2003,第17页, who write "for the next 20 years the field would be dominated by these people and their students." McCorduck 2004,第129–130页.

    • [14]

      ^Russell & Norvig 2003, p. 18..

    • [15]

      ^Schaeffer J. (2009) Didn't Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA.

    • [16]

      ^Samuel, A. L. (July 1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. 3 (3): 210–229. CiteSeerX 10.1.1.368.2254. doi:10.1147/rd.33.0210..

    • [17]

      ^"Golden years" of AI (successful symbolic reasoning programs 1956–1973): McCorduck 2004,第243–252页 Crevier 1993,第52–107页 Moravec 1988,第9页 Russell & Norvig 2003,第18–21页 The programs described are Arthur Samuel's checkers program for the IBM 701, Daniel Bobrow's STUDENT, Newell and Simon's Logic Theorist and Terry Winograd's SHRDLU..

    • [18]

      ^DARPA pours money into undirected pure research into AI during the 1960s: McCorduck 2004,第131页 Crevier 1993,第51, 64–65页 NRC 1999,第204–205页.

    • [19]

      ^AI in England: Howe 1994.

    • [20]

      ^Optimism of early AI: Herbert Simon quote: Simon 1965,第96页 quoted in Crevier 1993,第109页. Marvin Minsky quote: Minsky 1967,第2页 quoted in Crevier 1993,第109页..

    • [21]

      ^First AI Winter, Mansfield Amendment, Lighthill report Crevier 1993,第115–117页 Russell & Norvig 2003,第22页 NRC 1999,第212–213页 Howe 1994.

    • [22]

      ^Boom of the 1980s: rise of expert systems, Fifth Generation Project, Alvey, MCC, SCI: McCorduck 2004,第426–441页 Crevier 1993,第161–162,197–203, 211, 240页 Russell & Norvig 2003,第24页 NRC 1999,第210–211页.

    • [23]

      ^McCorduck 2004, pp. 480–483..

    • [24]

      ^Markoff 2011..

    • [25]

      ^"Ask the AI experts: What's driving today's progress in AI?". McKinsey & Company (in 英语). Retrieved 13 April 2018..

    • [26]

      ^Administrator. "Kinect's AI breakthrough explained". i-programmer.info. Archived from the original on 1 February 2016..

    • [27]

      ^Rowinski, Dan (15 January 2013). "Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]". ReadWrite. Archived from the original on 22 December 2015..

    • [28]

      ^"AlphaGo – Google DeepMind". Archived from the original on 10 March 2016..

    • [29]

      ^"After Win in China, AlphaGo's Designers Explore New AI". Wired. 27 May 2017. Archived from the original on 2 June 2017..

    • [30]

      ^"World's Go Player Ratings". May 2017. Archived from the original on 1 April 2017..

    • [31]

      ^"柯洁迎19岁生日 雄踞人类世界排名第一已两年" (in Chinese). May 2017. Archived from the original on 11 August 2017.CS1 maint: Unrecognized language (link).

    • [32]

      ^Clark, Jack (8 December 2015). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg News. Archived from the original on 23 November 2016. Retrieved 23 November 2016. After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever..

    • [33]

      ^AI becomes hugely successful in the early 21st century Clark 2015.

    • [34]

      ^Lorica, Ben (18 December 2017). "The state of AI adoption". O'Reilly Media (in 英语). Retrieved 2 May 2018..

    • [35]

      ^Allen, Gregory (February 6, 2019). "Understanding China's AI Strategy". Center for a New American Security..

    • [36]

      ^"Review | How two AI superpowers – the U.S. and China – battle for supremacy in the field". Washington Post (in 英语). 2 November 2018. Retrieved 4 November 2018..

    • [37]

      ^"Kaplan, A. and M. Haenlein (2019) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1)"..

    • [38]

      ^Definition of AI as the study of intelligent agents: Poole,Mackworth & Goebel(1998),p. 1, which provides the version that is used in this article. Note that they use the term "computational intelligence" as a synonym for artificial intelligence. Russell & Norvig(2003) (who prefer the term "rational agent") and write "The whole-agent view is now widely accepted in the field" (Russell & Norvig 2003,p.55). Nilsson 1998 Legg & Hutter 2007..

    • [39]

      ^Domingos 2015, Chapter 7..

    • [40]

      ^Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Selective sampling for nearest neighbor classifiers. Machine learning, 54(2), 125–152..

    • [41]

      ^Domingos 2015, Chapter 1..

    • [42]

      ^Domingos 2015, Chapter 2, Chapter 3..

    • [43]

      ^Hart, P. E.; Nilsson, N. J.; Raphael, B. (1972). "Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"". SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779..

    • [44]

      ^"Algorithm in Artificial Intelligence"..

    • [45]

      ^Domingos 2015, Chapter 2, Chapter 4, Chapter 6..

    • [46]

      ^"Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?". Scientific American (in 英语). 2018. Retrieved 24 March 2018..

    • [47]

      ^Domingos 2015, Chapter 6, Chapter 7..

    • [48]

      ^Domingos 2015, p. 286..

    • [49]

      ^"Single pixel change fools AI programs". BBC News. 3 November 2017. Retrieved 12 March 2018..

    • [50]

      ^"AI Has a Hallucination Problem That's Proving Tough to Fix". WIRED. 2018. Retrieved 12 March 2018..

    • [51]

      ^Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arXiv preprint arXiv:1412.6572 (2014)..

    • [52]

      ^"Cultivating Common Sense | DiscoverMagazine.com". Discover Magazine. 2017. Retrieved 24 March 2018..

    • [53]

      ^Davis, Ernest; Marcus, Gary (24 August 2015). "Commonsense reasoning and commonsense knowledge in artificial intelligence". Communications of the ACM. 58 (9): 92–103. doi:10.1145/2701413..

    • [54]

      ^Winograd, Terry (January 1972). "Understanding natural language". Cognitive Psychology. 3 (1): 1–191. doi:10.1016/0010-0285(72)90002-3..

    • [55]

      ^Knight, Will (2017). "Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car". MIT Technology Review (in 英语). Retrieved 27 March 2018..

    • [56]

      ^Prakken, Henry (31 August 2017). "On the problem of making autonomous vehicles conform to traffic law". Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0..

    • [57]

      ^This list of intelligent traits is based on the topics covered by the major AI textbooks, including: Russell & Norvig 2003 Luger & Stubblefield 2004 Poole,Mackworth & Goebel(1998) Nilsson 1998.

    • [58]

      ^Uncertain reasoning: Russell & Norvig 2003,第452–644页, Poole,Mackworth & Goebel(1998),第345–395页, Luger & Stubblefield 2004,第333–381页, Nilsson 1998,chpt. 19.

    • [59]

      ^Intractability and efficiency and the combinatorial explosion: Russell & Norvig 2003,第9, 21–22页.

    • [60]

      ^Knowledge representation: ACM 1998,I.2.4, Russell & Norvig 2003,第320–363页, Poole,Mackworth & Goebel(1998),第23–46, 69–81, 169–196, 235–277, 281–298, 319–345页, Luger & Stubblefield 2004,第227–243页, Nilsson 1998,chpt. 18.

    • [61]

      ^Knowledge engineering: Russell & Norvig 2003,第260–266页, Poole,Mackworth & Goebel(1998),第199–233页, Nilsson 1998,chpt. ≈17.1–17.4.

    • [62]

      ^Sikos, Leslie F. (June 2017). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. Archived from the original on 29 August 2017..

    • [63]

      ^Ontology: Russell & Norvig 2003,第320–328页.

    • [64]

      ^Smoliar, Stephen W.; Zhang, HongJiang (1994). "Content based video indexing and retrieval". IEEE Multimedia. 1.2: 62–72..

    • [65]

      ^Neumann, Bernd; Möller, Ralf (January 2008). "On scene interpretation with description logics". Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013..

    • [66]

      ^MCGARRY, KEN (1 December 2005). "A survey of interestingness measures for knowledge discovery". The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408..

    • [67]

      ^Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies". MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682..

    • [68]

      ^Qualification problem: McCarthy & Hayes 1969 Russell & Norvig 2003[页码请求] While McCarthy was primarily concerned with issues in the logical representation of actions, Russell & Norvig 2003 apply the term to the more general issue of default reasoning in the vast network of assumptions underlying all our commonsense knowledge..

    • [69]

      ^Breadth of commonsense knowledge: Russell & Norvig 2003,第21页, Crevier 1993,第113–114页, Moravec 1988,第13页, Lenat & Guha 1989 (Introduction).

    • [70]

      ^Dreyfus & Dreyfus 1986..

    • [71]

      ^Gladwell 2005..

    • [72]

      ^Expert knowledge as embodied intuition: Dreyfus & Dreyfus 1986 (Hubert Dreyfus is a philosopher and critic of AI who was among the first to argue that most useful human knowledge was encoded sub-symbolically. See Dreyfus' critique of AI) Gladwell 2005 (Gladwell's Blink is a popular introduction to sub-symbolic reasoning and knowledge.) Hawkins & Blakeslee 2005 (Hawkins argues that sub-symbolic knowledge should be the primary focus of AI research.).

    • [73]

      ^Planning: ACM 1998,~I.2.8, Russell & Norvig 2003,第375–459页, Poole,Mackworth & Goebel(1998),第281–316页, Luger & Stubblefield 2004,第314–329页, Nilsson 1998,chpt. 10.1–2, 22.

    • [74]

      ^Classical planning: Russell & Norvig 2003,第375–430页, Poole,Mackworth & Goebel(1998),第281–315页, Luger & Stubblefield 2004,第314–329页, Nilsson 1998,chpt. 10.1–2, 22.

    • [75]

      ^Planning and acting in non-deterministic domains: conditional planning, execution monitoring, replanning and continuous planning: Russell & Norvig 2003,第430–449页.

    • [76]

      ^Multi-agent planning and emergent behavior: Russell & Norvig 2003,第449–455页.

    • [77]

      ^Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".(Solomonoff 1956).

    • [78]

      ^This is a form of Tom Mitchell's widely quoted definition of machine learning: "A computer program is set to learn from an experience E with respect to some task T and some performance measure P if its performance on T as measured by P improves with experience E.".

    • [79]

      ^Learning: ACM 1998,I.2.6, Russell & Norvig 2003,第649–788页, Poole,Mackworth & Goebel(1998),第397–438页, Luger & Stubblefield 2004,第385–542页, Nilsson 1998,chpt. 3.3, 10.3, 17.5, 20.

    • [80]

      ^Jordan, M. I.; Mitchell, T. M. (16 July 2015). "Machine learning: Trends, perspectives, and prospects". Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243..

    • [81]

      ^Reinforcement learning: Russell & Norvig 2003,第763–788页 Luger & Stubblefield 2004,第442–449页.

    • [82]

      ^Natural language processing: ACM 1998,I.2.7 Russell & Norvig 2003,第790–831页 Poole,Mackworth & Goebel(1998),第91–104页 Luger & Stubblefield 2004,第591–632页.

    • [83]

      ^"Versatile question answering systems: seeing in synthesis" Archived 1 2月 2016 at the Wayback Machine, Mittal et al., IJIIDS, 5(2), 119–142, 2011.

    • [84]

      ^Applications of natural language processing, including information retrieval (i.e. text mining) and machine translation: Russell & Norvig 2003,第840–857页, Luger & Stubblefield 2004,第623–630页.

    • [85]

      ^Cambria, Erik; White, Bebo (May 2014). "Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]". IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227..

    • [86]

      ^Machine perception: Russell & Norvig 2003,第537–581, 863–898页 Nilsson 1998,~chpt. 6.

    • [87]

      ^Speech recognition: ACM 1998,~I.2.7 Russell & Norvig 2003,第568–578页.

    • [88]

      ^Object recognition: Russell & Norvig 2003,第885–892页.

    • [89]

      ^Computer vision: ACM 1998,I.2.10 Russell & Norvig 2003,第863–898页 Nilsson 1998,chpt. 6.

    • [90]

      ^Robotics: ACM 1998,I.2.9, Russell & Norvig 2003,第901–942页, Poole,Mackworth & Goebel(1998),第443–460页.

    • [91]

      ^Robotic mapping (localization, etc): Russell & Norvig 2003,第908–915页.

    • [92]

      ^Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age". IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. doi:10.1109/TRO.2016.2624754..

    • [93]

      ^Moravec, Hans (1988). Mind Children. Harvard University Press. p. 15..

    • [94]

      ^Chan, Szu Ping (15 November 2015). "This is what will happen when robots take over the world". Retrieved 23 April 2018..

    • [95]

      ^Thompson, Derek (2018). "What Jobs Will the Robots Take?". The Atlantic. Retrieved 24 April 2018..

    • [96]

      ^Scassellati, Brian (2002). "Theory of mind for a humanoid robot". Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114..

    • [97]

      ^Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (February 2013). "An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination". IEEE Transactions on Industrial Informatics. 9 (1): 427–438. arXiv:1207.3231. doi:10.1109/TII.2012.2219061..

    • [98]

      ^Thro 1993..

    • [99]

      ^Edelson 1991..

    • [100]

      ^Tao & Tan 2005..

    • [101]

      ^Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003..

    • [102]

      ^Emotion and affective computing: Minsky 2006.

    • [103]

      ^Waddell, Kaveh (2018). "Chatbots Have Entered the Uncanny Valley". The Atlantic. Retrieved 24 April 2018..

    • [104]

      ^Pennachin, C.; Goertzel, B. (2007). Contemporary Approaches to Artificial General Intelligence. Artificial General Intelligence. Cognitive Technologies. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4..

    • [105]

      ^General intelligence (strong AI) is discussed in popular introductions to AI: Kurzweil 1999 and Kurzweil 2005.

    • [106]

      ^"The superhero of artificial intelligence: can this genius keep it in check?". the Guardian (in 英语). 16 February 2016. Retrieved 26 April 2018..

    • [107]

      ^Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; King, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (26 February 2015). "Human-level control through deep reinforcement learning". Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670..

    • [108]

      ^Sample, Ian (14 March 2017). "Google's DeepMind makes AI program that can learn like a human". the Guardian (in 英语). Retrieved 26 April 2018..

    • [109]

      ^"From not working to neural networking". The Economist (in 英语). 2016. Retrieved 26 April 2018..

    • [110]

      ^Russell & Norvig 2009..

    • [111]

      ^Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). "A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures". Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012..

    • [112]

      ^Nils Nilsson writes: "Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983,p.10)..

    • [113]

      ^Biological intelligence vs. intelligence in general: Russell & Norvig 2003,第2–3页, who make the analogy with aeronautical engineering. McCorduck 2004,第100–101页, who writes that there are "two major branches of artificial intelligence: one aimed at producing intelligent behavior regardless of how it was accomplished, and the other aimed at modeling intelligent processes found in nature, particularly human ones." Kolata 1982, a paper in Science, which describes McCarthy's indifference to biological models. Kolata quotes McCarthy as writing: "This is AI, so we don't care if it's psychologically real""Science". August 1982.. McCarthy recently reiterated his position at the AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006)..

    • [114]

      ^Haugeland 1985,第112–117页.

    • [115]

      ^The most dramatic case of sub-symbolic AI being pushed into the background was the devastating critique of perceptrons by Marvin Minsky and Seymour Papert in 1969. See History of AI, AI winter, or Frank Rosenblatt..

    • [116]

      ^Cognitive simulation, Newell and Simon, AI at CMU (then called Carnegie Tech): McCorduck 2004,第139–179, 245–250, 322–323 (EPAM)页 Crevier 1993,第145–149页.

    • [117]

      ^Soar (history): McCorduck 2004,第450–451页 Crevier 1993,第258–263页.

    • [118]

      ^McCarthy and AI research at SAIL and SRI International: McCorduck 2004,第251–259页 Crevier 1993.

    • [119]

      ^AI research at Edinburgh and in France, birth of Prolog: Crevier 1993,第193–196页 Howe 1994.

    • [120]

      ^AI at MIT under Marvin Minsky in the 1960s : McCorduck 2004,第259–305页 Crevier 1993,第83–102, 163–176页 Russell & Norvig 2003,第19页.

    • [121]

      ^Cyc: McCorduck 2004,第489页, who calls it "a determinedly scruffy enterprise" Crevier 1993,第239–243页 Russell & Norvig 2003,第363−365页 Lenat & Guha 1989.

    • [122]

      ^Knowledge revolution: McCorduck 2004,第266–276, 298–300, 314, 421页 Russell & Norvig 2003,第22–23页.

    • [123]

      ^Expert systems: ACM 1998,I.2.1 Russell & Norvig 2003,第22–24页 Luger & Stubblefield 2004,第227–331页 Nilsson 1998,chpt. 17.4 McCorduck 2004,第327–335, 434–435页 Crevier 1993,第145–62, 197–203页.

    • [124]

      ^Symbolic vs. sub-symbolic AI: Nilsson(1998, p. 7), who uses the term "sub-symbolic"..

    • [125]

      ^Weng et al. 2001..

    • [126]

      ^Lungarella et al. 2003..

    • [127]

      ^Asada et al. 2009..

    • [128]

      ^Oudeyer 2010..

    • [129]

      ^Revival of connectionism: Crevier 1993,第214–215页 Russell & Norvig 2003,第25页.

    • [130]

      ^Computational intelligence IEEE Computational Intelligence Society Archived 9 5月 2008 at the Wayback Machine.

    • [131]

      ^Formal methods are now preferred ("Victory of the neats"): Russell & Norvig 2003,第25–26页 McCorduck 2004,第486–487页.

    • [132]

      ^Norvig 2012..

    • [133]

      ^Langley 2011..

    • [134]

      ^Katz 2012..

    • [135]

      ^The intelligent agent paradigm: Russell & Norvig 2003,第27, 32–58, 968–972页 Poole,Mackworth & Goebel(1998),第7–21页 Luger & Stubblefield 2004,第235–240页 Hutter 2005,第125–126页 The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig(2003). Other definitions also include knowledge and learning as additional criteria..

    • [136]

      ^Agent architectures, hybrid intelligent systems: Russell & Norvig(2003, pp. 27, 932, 970–972) Nilsson(1998, chpt. 25).

    • [137]

      ^Hierarchical control system: Albus 2002.

    • [138]

      ^Laird, John (2008). "Extending the Soar cognitive architecture". Frontiers in Artificial Intelligence and Applications. 171: 224. CiteSeerX 10.1.1.77.2473..

    • [139]

      ^Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (May 2018). "The role of cognitive architectures in general artificial intelligence". Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003..

    • [140]

      ^Search algorithms: Russell & Norvig 2003,第59–189页 Poole,Mackworth & Goebel(1998),第113–163页 Luger & Stubblefield 2004,第79–164, 193–219页 Nilsson 1998,chpt. 7–12.

    • [141]

      ^Forward chaining, backward chaining, Horn clauses, and logical deduction as search: Russell & Norvig 2003,第217–225, 280–294页 Poole,Mackworth & Goebel(1998),第~46–52页 Luger & Stubblefield 2004,第62–73页 Nilsson 1998,chpt. 4.2, 7.2.

    • [142]

      ^State space search and planning: Russell & Norvig 2003,第382–387页 Poole,Mackworth & Goebel(1998),第298–305页 Nilsson 1998,chpt. 10.1–2.

    • [143]

      ^Moving and configuration space: Russell & Norvig 2003,第916–932页.

    • [144]

      ^Heuristic or informed searches (e.g., greedy best first and A*): Russell & Norvig 2003,第94–109页, Poole,Mackworth & Goebel(1998),第pp. 132–147页, Luger & Stubblefield 2004,第133–150页, Nilsson 1998,chpt. 9, Poole & Mackworth 2017,Section 3.6.

    • [145]

      ^Tecuci 2012..

    • [146]

      ^Genetic programming and genetic algorithms: Luger & Stubblefield 2004,第509–530页, Nilsson 1998,chpt. 4.2, Holland 1975, Koza 1992, Poli,Langdon & McPhee(2008)..

    • [147]

      ^Artificial life and society based learning: Luger & Stubblefield 2004,第530–541页.

    • [148]

      ^Daniel Merkle; Martin Middendorf (2013). "Swarm Intelligence". In Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (in 英语). Springer Science & Business Media. ISBN 978-1-4614-6940-7..

    • [149]

      ^Logic: ACM 1998,~I.2.3, Russell & Norvig 2003,第194–310页, Luger & Stubblefield 2004,第35–77页, Nilsson 1998,chpt. 13–16.

    • [150]

      ^Satplan: Russell & Norvig 2003,第402–407页, Poole,Mackworth & Goebel(1998),第300–301页, Nilsson 1998,chpt. 21.

    • [151]

      ^Explanation based learning, relevance based learning, inductive logic programming, case based reasoning: Russell & Norvig 2003,第678–710页, Poole,Mackworth & Goebel(1998),第414–416页, Luger & Stubblefield 2004,第~422–442页, Nilsson 1998,chpt. 10.3, 17.5.

    • [152]

      ^Propositional logic: Russell & Norvig 2003,第204–233页, Luger & Stubblefield 2004,第45–50页 Nilsson 1998,chpt. 13.

    • [153]

      ^First-order logic and features such as equality: ACM 1998,~I.2.4, Russell & Norvig 2003,第240–310页, Poole,Mackworth & Goebel(1998),第268–275页, Luger & Stubblefield 2004,第50–62页, Nilsson 1998,chpt. 15.

    • [154]

      ^Fuzzy logic: Russell & Norvig 2003,第526–527页.

    • [155]

      ^"What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?". Scientific American (in 英语). Retrieved 5 May 2018..

    • [156]

      ^Representing categories and relations: Semantic networks, description logics, inheritance (including frames and scripts): Russell & Norvig 2003,第349–354页, Poole,Mackworth & Goebel(1998),第174–177页, Luger & Stubblefield 2004,第248–258页, Nilsson 1998,chpt. 18.3.

    • [157]

      ^Representing knowledge about knowledge: Belief calculus, modal logics: Russell & Norvig 2003,第341–344页, Poole,Mackworth & Goebel(1998),第275–277页.

    • [158]

      ^Demey, Lorenz; Kooi, Barteld; Sack, Joshua (2013-03-07). "Logic and Probability". Stanford Encyclopedia of Philosophy. Retrieved 5 May 2018..

    • [159]

      ^Stochastic methods for uncertain reasoning: ACM 1998,~I.2.3, Russell & Norvig 2003,第462–644页, Poole,Mackworth & Goebel(1998),第345–395页, Luger & Stubblefield 2004,第165–191, 333–381页, Nilsson 1998,chpt. 19.

    • [160]

      ^Bayesian networks: Russell & Norvig 2003,第492–523页, Poole,Mackworth & Goebel(1998),第361–381页, Luger & Stubblefield 2004,第~182–190, ≈363–379页, Nilsson 1998,chpt. 19.3–4.

    • [161]

      ^Bayesian inference algorithm: Russell & Norvig 2003,第504–519页, Poole,Mackworth & Goebel(1998),第361–381页, Luger & Stubblefield 2004,第~363–379页, Nilsson 1998,chpt. 19.4 & 7.

    • [162]

      ^Bayesian learning and the expectation-maximization algorithm: Russell & Norvig 2003,第712–724页, Poole,Mackworth & Goebel(1998),第424–433页, Nilsson 1998,chpt. 20.

    • [163]

      ^Bayesian decision theory and Bayesian decision networks: Russell & Norvig 2003,第597–600页.

    • [164]

      ^Stochastic temporal models: Russell & Norvig 2003,第537–581页 Dynamic Bayesian networks: Russell & Norvig 2003,第551–557页 Hidden Markov model: (Russell & Norvig 2003,pp.549–551) Kalman filters: Russell & Norvig 2003,第551–557页.

    • [165]

      ^decision theory and decision analysis: Russell & Norvig 2003,第584–597页, Poole,Mackworth & Goebel(1998),第381–394页.

    • [166]

      ^Information value theory: Russell & Norvig 2003,第600–604页.

    • [167]

      ^Game theory and mechanism design: Russell & Norvig 2003,第631–643页.

    • [168]

      ^Statistical learning methods and classifiers: Russell & Norvig 2003,第712–754页, Luger & Stubblefield 2004,第453–541页.

    • [169]

      ^Decision tree: Russell & Norvig 2003,第653–664页, Poole,Mackworth & Goebel(1998),第403–408页, Luger & Stubblefield 2004,第408–417页.

    • [170]

      ^Domingos 2015, p. 88..

    • [171]

      ^Neural networks and connectionism: Russell & Norvig 2003,第736–748页, Poole,Mackworth & Goebel(1998),第408–414页, Luger & Stubblefield 2004,第453–505页, Nilsson 1998,chpt. 3.

    • [172]

      ^K-nearest neighbor algorithm: Russell & Norvig 2003,第733–736页.

    • [173]

      ^kernel methods such as the support vector machine: Russell & Norvig 2003,第749–752页.

    • [174]

      ^Gaussian mixture model: Russell & Norvig 2003,第725–727页.

    • [175]

      ^Naive Bayes classifier: Russell & Norvig 2003,第718页.

    • [176]

      ^Classifier performance: van der Walt & Bernard 2006.

    • [177]

      ^Russell & Norvig 2009, 18.12: Learning from Examples: Summary..

    • [178]

      ^Domingos 2015, Chapter 4..

    • [179]

      ^"Why Deep Learning Is Suddenly Changing Your Life". Fortune. 2016. Retrieved 12 March 2018..

    • [180]

      ^"Google leads in the race to dominate artificial intelligence". The Economist (in 英语). 2017. Retrieved 12 March 2018..

    • [181]

      ^Feedforward neural networks, perceptrons and radial basis networks: Russell & Norvig 2003,第739–748, 758页 Luger & Stubblefield 2004,第458–467页.

    • [182]

      ^Competitive learning, Hebbian coincidence learning, Hopfield networks and attractor networks: Luger & Stubblefield 2004,第474–505页.

    • [183]

      ^Seppo Linnainmaa (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master's Thesis (in Finnish), Univ. Helsinki, 6–7..

    • [184]

      ^Griewank, Andreas (2012). Who Invented the Reverse Mode of Differentiation?. Optimization Stories, Documenta Matematica, Extra Volume ISMP (2012), 389–400..

    • [185]

      ^Paul Werbos, "Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences", PhD thesis, Harvard University, 1974..

    • [186]

      ^Paul Werbos (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. Online Archived 14 4月 2016 at the Wayback Machine.

    • [187]

      ^Backpropagation: Russell & Norvig 2003,第744–748页, Luger & Stubblefield 2004,第467–474页, Nilsson 1998,chpt. 3.3.

    • [188]

      ^Hierarchical temporal memory: Hawkins & Blakeslee 2005.

    • [189]

      ^"Artificial intelligence can 'evolve' to solve problems". Science | AAAS (in 英语). 10 January 2018. Retrieved 7 February 2018..

    • [190]

      ^Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637..

    • [191]

      ^Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Archived 16 4月 2016 at the Wayback Machine.

    • [192]

      ^Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups". IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597..

    • [193]

      ^Schmidhuber, Jürgen (2015). "Deep Learning". Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832..

    • [194]

      ^Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Archived 19 4月 2016 at the Wayback Machine.

    • [195]

      ^Igor Aizenberg, Naum N. Aizenberg, Joos P.L. Vandewalle (2000). Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications. Springer Science & Business Media..

    • [196]

      ^Ivakhnenko, Alexey (1965). Cybernetic Predicting Devices. Kiev: Naukova Dumka..

    • [197]

      ^Ivakhnenko, Alexey (1971). "Polynomial theory of complex systems". IEEE Transactions on Systems, Man and Cybernetics (4): 364–378..

    • [198]

      ^Hinton 2007..

    • [199]

      ^Research, AI (23 October 2015). "Deep Neural Networks for Acoustic Modeling in Speech Recognition". airesearch.com. Retrieved 23 October 2015..

    • [200]

      ^Fukushima, K. (1980). "Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position". Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364..

    • [201]

      ^Yann LeCun (2016). Slides on Deep Learning Online Archived 23 4月 2016 at the Wayback Machine.

    • [202]

      ^Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis (19 October 2017). "Mastering the game of Go without human knowledge". Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. PMID 29052630. AlphaGo Lee... 12 convolutional layers.

    • [203]

      ^Recurrent neural networks, Hopfield nets: Russell & Norvig 2003,第758页 Luger & Stubblefield 2004,第474–505页.

    • [204]

      ^Hyötyniemi, Heikki (1996). "Turing machines are recurrent neural networks". Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24..

    • [205]

      ^P. J. Werbos. Generalization of backpropagation with application to a recurrent gas market model" Neural Networks 1, 1988..

    • [206]

      ^A. J. Robinson and F. Fallside. The utility driven dynamic error propagation network. Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department, 1987..

    • [207]

      ^R. J. Williams and D. Zipser. Gradient-based learning algorithms for recurrent networks and their computational complexity. In Back-propagation: Theory, Architectures and Applications. Hillsdale, NJ: Erlbaum, 1994..

    • [208]

      ^Sepp Hochreiter (1991), Untersuchungen zu dynamischen neuronalen Netzen Archived 6 3月 2015 at the Wayback Machine, Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber..

    • [209]

      ^Schmidhuber, J. (1992). "Learning complex, extended sequences using the principle of history compression". Neural Computation. 4 (2): 234–242. CiteSeerX 10.1.1.49.3934. doi:10.1162/neco.1992.4.2.234..

    • [210]

      ^Hochreiter, Sepp; and Schmidhuber, Jürgen; Long Short-Term Memory, Neural Computation, 9(8):1735–1780, 1997.

    • [211]

      ^Alex Graves, Santiago Fernandez, Faustino Gomez, and Jürgen Schmidhuber (2006). Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural nets. Proceedings of ICML'06, pp. 369–376..

    • [212]

      ^Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y. (2014). "Deep Speech: Scaling up end-to-end speech recognition". arXiv:1412.5567 [cs.CL]..

    • [213]

      ^Hasim Sak and Andrew Senior and Francoise Beaufays (2014). Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling. Proceedings of Interspeech 2014..

    • [214]

      ^Li, Xiangang; Wu, Xihong (2015). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arXiv:1410.4281 [cs.CL]..

    • [215]

      ^Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Archived 9 3月 2016 at the Wayback Machine.

    • [216]

      ^Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). "Sequence to Sequence Learning with Neural Networks". arXiv:1409.3215 [cs.CL]..

    • [217]

      ^Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). "Exploring the Limits of Language Modeling". arXiv:1602.02410 [cs.CL]..

    • [218]

      ^Gillick, Dan; Brunk, Cliff; Vinyals, Oriol; Subramanya, Amarnag (2015). "Multilingual Language Processing From Bytes". arXiv:1512.00103 [cs.CL]..

    • [219]

      ^Vinyals, Oriol; Toshev, Alexander; Bengio, Samy; Erhan, Dumitru (2015). "Show and Tell: A Neural Image Caption Generator". arXiv:1411.4555 [cs.CV]..

    • [220]

      ^Brynjolfsson, Erik; Mitchell, Tom (22 December 2017). "What can machine learning do? Workforce implications". Science (in 英语). pp. 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Retrieved 7 May 2018..

    • [221]

      ^Sample, Ian (18 October 2017). "'It's able to create knowledge itself': Google unveils AI that learns on its own". the Guardian (in 英语). Retrieved 7 May 2018..

    • [222]

      ^"The AI revolution in science". Science | AAAS (in 英语). 5 July 2017. Retrieved 7 May 2018..

    • [223]

      ^"Will your job still exist in 10 years when the robots arrive?". South China Morning Post (in 英语). 2017. Retrieved 7 May 2018..

    • [224]

      ^"IKEA furniture and the limits of AI". The Economist (in 英语). 2018. Retrieved 24 April 2018..

    • [225]

      ^Brown, Noam; Sandholm, Tuomas (26 January 2018). "Superhuman AI for heads-up no-limit poker: Libratus beats top professionals". Science (in 英语). pp. 418–424. doi:10.1126/science.aao1733. Retrieved 7 May 2018..

    • [226]

      ^Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (December 2013). "A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft". IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. CiteSeerX 10.1.1.406.2524. doi:10.1109/TCIAIG.2013.2286295..

    • [227]

      ^"Facebook Quietly Enters StarCraft War for AI Bots, and Loses". WIRED. 2017. Retrieved 7 May 2018..

    • [228]

      ^"ILSVRC2017". image-net.org (in 英语). Retrieved 2018-11-06..

    • [229]

      ^Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (23 August 2017). "Moving beyond the Turing Test with the Allen AI Science Challenge". Communications of the ACM. 60 (9): 60–64. arXiv:1604.04315. doi:10.1145/3122814..

    • [230]

      ^O'Brien & Marakas 2011..

    • [231]

      ^Mathematical definitions of intelligence: Hernandez-Orallo 2000 Dowe & Hajek 1997 Hernandez-Orallo & Dowe 2010.

    • [232]

      ^Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (March 2014). "Universal psychometrics: Measuring cognitive abilities in the machine kingdom". Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001..

    • [233]

      ^Russell & Norvig 2009, p. 1..

    • [234]

      ^CNN 2006..

    • [235]

      ^Using AI to predict flight delays, Ishti.org..

    • [236]

      ^N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). "Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective". PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93..

    • [237]

      ^"The Economist Explains: Why firms are piling into artificial intelligence". The Economist. 31 March 2016. Archived from the original on 8 May 2016. Retrieved 19 May 2016..

    • [238]

      ^Lohr, Steve (28 February 2016). "The Promise of Artificial Intelligence Unfolds in Small Steps". The New York Times. Archived from the original on 29 February 2016. Retrieved 29 February 2016..

    • [239]

      ^Wakefield, Jane (15 June 2016). "Social media 'outstrips TV' as news source for young people". BBC News. Archived from the original on 24 June 2016..

    • [240]

      ^Smith, Mark (22 July 2016). "So you think you chose to read this article?". BBC News. Archived from the original on 25 July 2016..

    • [241]

      ^"10 Promising AI Applications in Health Care". Harvard Business Review. 2018-05-10. Retrieved 2018-08-28..

    • [242]

      ^Dina Bass (20 September 2016). "Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments". Bloomberg. Archived from the original on 11 May 2017..

    • [243]

      ^Gallagher, James (26 January 2017). "Artificial intelligence 'as good as cancer doctors'". BBC News (in 英语). Archived from the original on 26 January 2017. Retrieved 26 January 2017..

    • [244]

      ^Langen, Pauline A.; Katz, Jeffrey S.; Dempsey, Gayle, eds. (18 October 1994), Remote monitoring of high-risk patients using artificial intelligence (US5357427 A), archived from the original on 28 February 2017, retrieved 27 February 2017.

    • [245]

      ^Kermany, D; Goldbaum, M; Zhang, Kang. "Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning" (PDF). cell.com. Retrieved 2018-12-18..

    • [246]

      ^Senthilingam, Meera (12 May 2016). "Are Autonomous Robots Your next Surgeons?". CNN. Cable News Network. Archived from the original on 3 December 2016. Retrieved 4 December 2016..

    • [247]

      ^Markoff, John (16 February 2011). "On 'Jeopardy!' Watson Win Is All but Trivial". The New York Times. Archived from the original on 22 September 2017..

    • [248]

      ^Ng, Alfred (7 August 2016). "IBM's Watson gives proper diagnosis after doctors were stumped". NY Daily News (in 英语). Archived from the original on 22 September 2017..

    • [249]

      ^"33 Corporations Working On Autonomous Vehicles". CB Insights. N.p., 11 August 2016. 12 November 2016..

    • [250]

      ^West, Darrell M. "Moving forward: Self-driving vehicles in China, Europe, Japan, Korea, and the United States". Center for Technology Innovation at Brookings. N.p., September 2016. 12 November 2016..

    • [251]

      ^Burgess, Matt (24 August 2017). "The UK is about to Start Testing Self-Driving Truck Platoons". Wired UK. Archived from the original on 22 September 2017. Retrieved 20 September 2017..

    • [252]

      ^Davies, Alex (5 May 2015). "World's First Self-Driving Semi-Truck Hits the Road". WIRED. Archived from the original on 28 October 2017. Retrieved 20 September 2017..

    • [253]

      ^McFarland, Matt. "Google's artificial intelligence breakthrough may have a huge impact on self-driving cars and much more". The Washington Post 25 February 2015. Infotrac Newsstand. 24 October 2016.

    • [254]

      ^"Programming safety into self-driving cars". National Science Foundation. N.p., 2 February 2015. 24 October 2016..

    • [255]

      ^ArXiv, E. T. (26 October 2015). Why Self-Driving Cars Must Be Programmed to Kill. Retrieved 17 November 2017, from https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/.

    • [256]

      ^O'Neill, Eleanor (31 July 2016). "Accounting, automation and AI". icas.com (in English). Archived from the original on 18 November 2016. Retrieved 18 November 2016.CS1 maint: Unrecognized language (link).

    • [257]

      ^Robots Beat Humans in Trading Battle. Archived 9 9月 2009 at the Wayback Machine BBC.com (8 August 2001).

    • [258]

      ^"CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable". Financial Services Roundtable (in 英语). 2 April 2015. Archived from the original on 18 November 2016. Retrieved 18 November 2016..

    • [259]

      ^Marwala, Tshilidzi; Hurwitz, Evan (2017). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9..

    • [260]

      ^"Why AI researchers like video games". The Economist. Archived from the original on 5 October 2017..

    • [261]

      ^Yannakakis, G. N. (2012, May). Game AI revisited. In Proceedings of the 9th conference on Computing Frontiers (pp. 285–292). ACM..

    • [262]

      ^"Getting to grips with military robotics". The Economist (in 英语). 25 January 2018. Retrieved 7 February 2018..

    • [263]

      ^"Autonomous Systems: Infographic". siemens.com (in 英语). Retrieved 7 February 2018..

    • [264]

      ^Allen, Gregory (February 6, 2019). "Understanding China's AI Strategy". https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy. Center for a New American Security. Archived from the original on March 17, 2019. Retrieved March 17, 2019. External link in |website= (help).

    • [265]

      ^Metz, Cade (15 March 2018). "Pentagon Wants Silicon Valley's Help on A.I." The New York Times. Retrieved 19 March 2018..

    • [266]

      ^Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (10 April 2017). "Technical Inefficiency, Allocative Inefficiency, and Audit Pricing". Journal of Accounting, Auditing & Finance. 33 (4): 580–600. doi:10.1177/0148558X17696760..

    • [267]

      ^Matz, S. C., et al. "Psychological targeting as an effective approach to digital mass persuasion." Proceedings of the National Academy of Sciences (2017): 201710966..

    • [268]

      ^Busby, Mattha (30 April 2018). "Revealed: how bookies use AI to keep gamblers hooked". the Guardian (in 英语)..

    • [269]

      ^Celli, Fabio, Pietro Zani Massani, and Bruno Lepri. "Profilio: Psychometric Profiling to Boost Social Media Advertising." Proceedings of the 2017 ACM on Multimedia Conference. ACM, 2017 [1].

    • [270]

      ^https://web.archive.org/web/20221026002632/https://www.moma.org/calendar/exhibitions/3863 Retrieved July 29, 2018.

    • [271]

      ^https://web.archive.org/web/20221026002632/https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Retrieved July 29.

    • [272]

      ^"Unhuman: Art in the Age of AI – State Festival". Statefestival.org. Retrieved 2018-09-13..

    • [273]

      ^https://web.archive.org/web/20221026002632/https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human. Retrieved July 29.

    • [274]

      ^https://web.archive.org/web/20221026002632/https://dl.acm.org/citation.cfm?id=3204480.3186697 Retrieved July 29.

    • [275]

      ^The Turing test: Turing's original publication: Turing 1950 Historical influence and philosophical implications: Haugeland 1985,第6–9页 Crevier 1993,第24页 McCorduck 2004,第70–71页 Russell & Norvig 2003,第2–3 and 948页.

    • [276]

      ^Dartmouth proposal: McCarthy 等人 1955 (the original proposal) Crevier 1993,第49页 (historical significance).

    • [277]

      ^The physical symbol systems hypothesis: Newell & Simon 1976,第116页 McCorduck 2004,第153页 Russell & Norvig 2003,第18页.

    • [278]

      ^Dreyfus criticized the necessary condition of the physical symbol system hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992,p.156).

    • [279]

      ^Dreyfus' critique of artificial intelligence: Dreyfus 1972, Dreyfus & Dreyfus 1986 Crevier 1993,第120–132页 McCorduck 2004,第211–239页 Russell & Norvig 2003,第950–952页,.

    • [280]

      ^Gödel 1951: in this lecture, Kurt Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact"..

    • [281]

      ^The Mathematical Objection: Russell & Norvig 2003,第949页 McCorduck 2004,第448–449页 Making the Mathematical Objection: Lucas 1961 Penrose 1989 Refuting Mathematical Objection: Turing 1950 under "(2) The Mathematical Objection" Hofstadter 1979 Background: Gödel 1931, Church 1936, Kleene 1935, Turing 1937.

    • [282]

      ^Graham Oppy (20 January 2015). "Gödel's Incompleteness Theorems". Stanford Encyclopedia of Philosophy. Retrieved 27 April 2016. These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail..

    • [283]

      ^Stuart J. Russell; Peter Norvig (2010). "26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection". Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4. even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations..

    • [284]

      ^Mark Colyvan. An introduction to the philosophy of mathematics. Cambridge University Press, 2012. From 2.2.2, 'Philosophical significance of Gödel's incompleteness results': "The accepted wisdom (with which I concur) is that the Lucas-Penrose arguments fail.".

    • [285]

      ^Artificial brain arguments: AI requires a simulation of the operation of the human brain Russell & Norvig 2003,第957页 Crevier 1993,第271 and 279页 A few of the people who make some form of the argument: Moravec 1988 Kurzweil 2005,第262页 Hawkins & Blakeslee 2005 The most extreme form of this argument (the brain replacement scenario) was put forward by Clark Glymour in the mid-1970s and was touched on by Zenon Pylyshyn and John Searle in 1980..

    • [286]

      ^https://web.archive.org/web/20221026002632/https://www.wired.com/story/andrew-yangs-presidential-bid-is-so-very-21st-century/.

    • [287]

      ^Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015..

    • [288]

      ^Holley, Peter (28 January 2015). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [289]

      ^Gibbs, Samuel (27 October 2014). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [290]

      ^Cellan-Jones, Rory (2 December 2014). "Stephen Hawking warns artificial intelligence could end mankind". BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [291]

      ^Post, Washington. "Tech titans like Elon Musk are spending $1 billion to save you from terminators". Archived from the original on 7 June 2016..

    • [292]

      ^Müller, Vincent C.; Bostrom, Nick (2014). "Future Progress in Artificial Intelligence: A Poll Among Experts" (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Archived (PDF) from the original on 15 January 2016..

    • [293]

      ^"Oracle CEO Mark Hurd sees no reason to fear ERP AI". SearchERP (in 英语). Retrieved 2019-05-06..

    • [294]

      ^"Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'". Business Insider. Retrieved 2019-05-06..

    • [295]

      ^"The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers". Tech Insider. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [296]

      ^Clark, Jack. "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [297]

      ^"Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. 15 January 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [298]

      ^"Is artificial intelligence really an existential threat to humanity?". Bulletin of the Atomic Scientists. 9 August 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [299]

      ^"The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016..

    • [300]

      ^"Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. 22 August 2014. Archived from the original on 30 October 2015. Retrieved 30 October 2015..

    • [301]

      ^In the early 1970s, Kenneth Colby presented a version of Weizenbaum's ELIZA known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993,pp.132–144).

    • [302]

      ^Joseph Weizenbaum's critique of AI: Weizenbaum 1976 Crevier 1993,第132–144页 McCorduck 2004,第356–373页 Russell & Norvig 2003,第961页 Weizenbaum (the AI researcher who developed the first chatterbot program, ELIZA) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life..

    • [303]

      ^https://web.archive.org/web/20221026002632/https://www.channelnewsasia.com/news/commentary/artificial-intelligence-big-data-bias-hiring-loans-key-challenge-11097374.

    • [304]

      ^Larson et al., How We Analyzed the COMPAS Recidivism Algorithm https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.

    • [305]

      ^Larson et al., How We Analyzed the COMPAS Recidivism Algorithm, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.

    • [306]

      ^E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3).

    • [307]

      ^"Automation and anxiety". The Economist. 9 May 2015. Retrieved 13 January 2018..

    • [308]

      ^Lohr, Steve (2017). "Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says". The New York Times. Retrieved 13 January 2018..

    • [309]

      ^Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). "The future of employment: How susceptible are jobs to computerisation?". Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625..

    • [310]

      ^Arntz, Melanie, Terry Gregory, and Ulrich Zierahn. "The risk of automation for jobs in OECD countries: A comparative analysis." OECD Social, Employment, and Migration Working Papers 189 (2016). p. 33..

    • [311]

      ^Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian. Retrieved 13 January 2018..

    • [312]

      ^Ford, Martin; Colvin, Geoff (6 September 2015). "Will robots create more jobs than they destroy?". The Guardian. Retrieved 13 January 2018..

    • [313]

      ^Wendell Wallach (2010). Moral Machines, Oxford University Press..

    • [314]

      ^Wallach, pp 37–54..

    • [315]

      ^Wallach, pp 55–73..

    • [316]

      ^Wallach, Introduction chapter..

    • [317]

      ^Michael Anderson and Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press..

    • [318]

      ^"Machine Ethics". aaai.org. Archived from the original on 29 November 2014..

    • [319]

      ^Rubin, Charles (Spring 2003). "Artificial Intelligence and Human Nature |'The New Atlantis". 1: 88–100. Archived from the original on 11 June 2012..

    • [320]

      ^Brooks, Rodney (10 November 2014). "artificial intelligence is a tool, not a threat". Archived from the original on 12 November 2014..

    • [321]

      ^Chalmers, David (1995). "Facing up to the problem of consciousness". Journal of Consciousness Studies. 2 (3): 200–219. See also this link.

    • [322]

      ^Horst, Steven, (2005) "The Computational Theory of Mind" in The Stanford Encyclopedia of Philosophy.

    • [323]

      ^This version is from Searle(1999), and is also quoted in Dennett 1991,第435页. Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." (Searle 1980,p.1). Strong AI is defined similarly by Russell & Norvig(2003, p. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis.".

    • [324]

      ^Searle's Chinese room argument: Searle 1980. Searle's original presentation of the thought experiment. Searle 1999. Discussion: Russell & Norvig 2003,第958–960页 McCorduck 2004,第443–445页 Crevier 1993,第269–271页.

    • [325]

      ^Robot rights: Russell & Norvig 2003,第964页 BBC News 2006 Prematurity of: Henderson 2007 In fiction: McCorduck(2004, pp. 190–25) discusses Frankenstein and identifies the key ethical issues as scientific hubris and the suffering of the monster, i.e. robot rights..

    • [326]

      ^Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072..

    • [327]

      ^maschafilm. "Content: Plug & Pray Film – Artificial Intelligence – Robots -". plugandpray-film.de. Archived from the original on 12 February 2016..

    • [328]

      ^Roberts, Jacob (2016). "Thinking Machines: The Search for Artificial Intelligence". Distillations. Vol. 2 no. 2. pp. 14–23. Retrieved 20 March 2018..

    • [329]

      ^Technological singularity: Vinge 1993 Kurzweil 2005 Russell & Norvig 2003,第963页.

    • [330]

      ^Transhumanism: Moravec 1988 Kurzweil 2005 Russell & Norvig 2003,第963页.

    • [331]

      ^AI as evolution: Edward Fredkin is quoted in McCorduck(2004, p. 401). Butler 1863 Dyson 1998.

    • [332]

      ^https://web.archive.org/web/20221026002632/http://www.igmchicago.org/surveys/robots-and-artificial-intelligence.

    • [333]

      ^AI in myth: McCorduck 2004,第4–5页 Russell & Norvig 2003,第939页.

    • [334]

      ^Anderson, Susan Leigh. "Asimov's "three laws of robotics" and machine metaethics." AI & Society 22.4 (2008): 477–493..

    • [335]

      ^McCauley, Lee (2007). "AI armageddon and the three laws of robotics". Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2..

    • [336]

      ^Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"". Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644..

    • [337]

      ^Elkin, Charles (1994). "The paradoxical success of fuzzy logic". IEEE Expert. 9 (4): 3–49. CiteSeerX 10.1.1.100.8402. doi:10.1109/64.336150..

    • [338]

      ^Domingos 2015, p. 210..

    • [339]

      ^Domingos 2015, p. 187..

    • [340]

      ^Domingos 2015, p. 188..

    • [341]

      ^Domingos 2015, p. 152..

    阅读 10w+
    版本记录
    • 暂无