top of page
  • Writer's pictureJohn Yun

人工智能 概述

计算机科学,人工智能(AI),有时也称为机器智能,是机器展示的智能,与人类展示的自然智能形成鲜明对比。俗话说,“人工智能”一词通常用于描述模仿人类与人类心灵相关的“认知”功能的机器(或计算机),如“学习”和“解决问题”。[1]


随着机器越来越强大,被认为需要“智能”的任务通常会从AI的定义中删除,这种现象被称为AI效应。[2]特斯勒定理中的一句话说“人工智能是尚未完成的任何事情。”[3]例如,光学字符识别经常被排除在被认为是人工智能的东西之外,已成为一种常规技术。[4]通常被归类为AI的现代机器功能包括成功地理解人类语音,[5]在战略游戏系统(例如国际象棋和围棋)中的最高级别竞争,[6]自主运行汽车,内容传递网络中的智能路由以及军事模拟。


人工智能可以分为三种不同类型的系统:分析,人类启发和人性化人工智能。[7]分析AI只具有与认知智能相符的特征;产生世界的认知表征,并根据过去的经验使用学习来为未来的决策提供信息。人性化的AI具有认知和情绪智力的元素;理解人类情感,除了认知元素,并在决策中考虑它们。人性化AI显示了所有类型的能力(即认知,情感和社交智能)的特征,能够自我意识并且在与他人的交互中具有自我意识。


人工智能是在1956年成立的一门学科,在此后的几年里经历了几波乐观,[8] [9]之后是失望和资金的流失(被称为“AI冬天”),[10] [11]接着是新的方法,成功和新的资金。[9] [12]在其历史的大部分时间里,人工智能研究已被分为通常无法相互沟通的子领域。[13]这些子领域基于技术考虑,例如特定目标(例如“机器人”或“机器学习”),[14]特定工具(“逻辑”或人工神经网络)的使用,或深刻的哲学差异。[ 15] [16] [17]子领域也基于社会因素(特定机构或特定研究人员的工作)。[13]


人工智能研究的传统问题(或目标)包括推理,知识表达,规划,学习,自然语言处理,感知以及移动和操纵物体的能力。[14]一般情报属于该领域的长期目标。[18]方法包括统计方法,计算智能和传统的符号AI。 AI中使用了许多工具,包括搜索和数学优化的版本,人工神经网络以及基于统计,概率和经济学的方法。 AI领域利用计算机科学,信息工程,数学,心理学,语言学,哲学和许多其他领域。


该领域的基础是人类智能“可以如此精确地描述,可以使机器模拟它”。[19]这提出了关于心灵本质的哲学论证以及创造具有类人智慧的人造生物的伦理,这些问题是自古以来神话,小说和哲学所探讨的问题。[20]有些人还认为人工智能如果进展有增无减,就会对人类造成危害。[21]其他人认为,与以往的技术革命不同,人工智能会造成大规模失业的风险。[22]

在二十一世纪,随着计算机能力,大量数据和理论理解的同步发展,人工智能技术经历了复苏;人工智能技术已经成为技术行业的重要组成部分,有助于解决计算机科学,软件工程和运筹学中的许多挑战性问题。[23] [12]


  1. 历史

主要文章:人工智能史和人工智能时间表



Talos,一种具有人工智能的古老神话自动机

具有思想能力的人造物在古代出现作为讲故事的装置,[24]并且在小说中很常见,如Mary Shelley的Frankenstein或KarelČapek的R.U.R. (罗森的通用机器人)。[25]这些人物和他们的命运引发了许多现在在人工智能伦理学中讨论过的相同问题。[20]


机械或“正式”推理的研究始于古代的哲学家和数学家。对数学逻辑的研究直接导致了阿兰图灵的计算理论,该理论认为通过改变符号“0”和“1”的机器,可以模拟任何可以想象的数学推导行为。这种洞察力,即数字计算机可以模拟任何形式推理的过程,被称为Church-Turing论文。[26]随着神经生物学,信息论和控制论的同步发现,这导致研究人员考虑建立电子大脑的可能性。图灵提出“如果一个人无法区分机器和人的反应,机器就可以被认为是”聪明的“。[27]现在被普遍认为是AI的第一项工作是McCullouch和Pitts 1943年的正式设计。图灵完整的“人工神经元”。[28]


人工智能研究领域于1956年在达特茅斯学院的一个研讨会上诞生。[29]与会者Allen Newell(CMU),Herbert Simon(CMU),John McCarthy(麻省理工学院),Marvin Minsky(麻省理工学院)和Arthur Samuel(IBM)成为人工智能研究的创始人和领导者。[30]他们和他们的学生制作的节目被新闻界描述为“令人惊讶”:[31]计算机正在学习跳棋策略(c.1954)[32](据报道,据说1959年比普通人更好),[33]代数中的问题,证明逻辑定理(逻辑理论家,第一次运行c.1956)和说英语。[34]到20世纪60年代中期,美国的研究资金得到了国防部的大量资助[35],并且在世界各地建立了实验室。[36]人工智能的创始人对未来持乐观态度:赫伯特·西蒙预言,“机器将能够在二十年内完成人类可以做的任何工作”。 Marvin Minsky同意并写道,“在一代人之内......创造'人工智能'的问题将基本得到解决”。[8]


他们没有认识到剩下的一些任务的难度。进展放缓,并且在1974年,为了应对詹姆斯·莱特希尔爵士[37]的批评以及美国国会不断向更具生产力的项目提供资金的压力,美国和英国政府都切断了人工智能的探索性研究。接下来的几年后来被称为“人工智能冬季”,[10]在获得人工智能项目资金的时期很难。


在20世纪80年代早期,专家系统的商业成功恢复了人工智能研究,[38]这是一种模拟人类专家知识和分析技能的人工智能程序。到1985年,人工智能市场已达到十亿美元以上。与此同时,日本的第五代计算机项目激励美国和英国政府恢复学术研究的资金。[9]然而,从1987年Lisp机器市场的崩溃开始,人工智能再一次声名狼借,并开始了第二次更持久的中断。[11]


在20世纪90年代末和21世纪初,人工智能开始被用于物流,数据挖掘,医疗诊断和其他领域。[23]成功的原因在于计算能力的提高(参见摩尔定律),更强调解决具体问题,人工智能与其他领域(如统计学,经济学和数学)之间的新联系,以及研究人员对数学方法和科学标准的承诺。 [39] Deep Blue于1997年5月11日成为第一个击败卫冕世界象棋冠军加里卡斯帕罗夫的计算机国际象棋系统。[40]


在2011年,一个Jeopardy!智力竞赛表演比赛,IBM的问答系统,沃森,击败了两个最大的Jeopardy!冠军,布拉德·鲁特和肯·詹宁斯,差不多。[41]更快的计算机,算法改进以及对大量数据的访问促进了机器学习和感知的进步;数据饥渴的深度学习方法在2012年左右开始主导准确性基准。[42] Kinect为Xbox 360和Xbox One提供了3D身体动作界面,它使用了冗长的AI研究[43]中出现的算法,以及智能手机中的智能个人助理。[44] 2016年3月,AlphaGo在Go冠军Lee Sedol的比赛中赢得了Go的5场比赛中的4场,成为第一个击败没有障碍的职业Go球员的电脑Go-playing系统。[6] [45]在2017年的Go of Go峰会上,AlphaGo赢得了与Ke Jie的三场比赛,[46]当时他连续两年保持世界排名第一。[47] [48]这标志着人工智能发展的重要里程碑的完成,因为Go是一个相对复杂的游戏,比国际象棋更为重要。


据彭博社的杰克·克拉克称,2015年是人工智能的标志性年份,使用人工智能的软件项目数量从2012年的“零星使用”增加到2,700多个项目。 Clark还提供了实际数据,表明自2012年以来人工智能的改进得到了图像处理任务中错误率较低的支持。[49]由于云计算基础设施的增加以及研究工具和数据集的增加,他将此归因于可负担得起的神经网络的增加。[12]其他引用的例子包括微软开发的Skype系统可以自动从一种语言翻译成另一种语言,以及Facebook系统可以向盲人描述图像。[49]在2017年的一项调查中,五分之一的公司报告称他们“将AI纳入某些产品或流程”。[50] [51] 2016年左右,中国大大加快了政府资金投入;鉴于其庞大的数据供应及其快速增长的研究成果,一些观察家认为可能有望成为“AI超级大国”。[52] [53]


定义

计算机科学将人工智能研究定义为对“智能代理人”的研究:任何能够感知其环境并采取行动以最大限度地实现其目标的机制的设备。[54]更精细的定义将AI描述为“系统正确解释外部数据,从这些数据中学习,并通过灵活适应来利用这些学习来实现特定目标和任务的能力。”[55]


基本

典型的人工智能分析其环境并采取最大化其成功机会的行动。[54] AI的预期效用函数(或目标)可以很简单(“如果AI赢得Go游戏则为1,否则为0”)或复杂(“在数学上类似于过去成功的行为”)。目标可以明确定义或诱导。如果AI被编程为“强化学习”,则可以通过奖励某些类型的行为或惩罚他人来隐含地诱导目标。[a]或者,进化系统可以通过使用“适应度函数”来突变并优先复制高目标人工智能系统,类似于动物如何进化到天生就渴望某些目标,如寻找食物。[56]一些人工智能系统,例如最近邻居,而不是类比推理,这些系统通常没有给出目标,除非目标隐含在他们的训练数据中。[57]如果非目标系统被构建为一个系统,其“目标”是成功完成其狭窄的分类任务,那么这些系统仍然可以进行基准测试。[58]


AI经常围绕算法的使用。算法是机械计算机可以执行的一组明确指令。[b]复杂算法通常建立在其他更简单的算法之上。一个简单的算法示例如下(对于第一个玩家来说是最佳的)在井字游戏中的游戏配方:[59]


如果某人有“威胁”(即连续两次),则取剩余的方格。除此以外,

如果一个动作“分叉”同时创造两个威胁,那么就行动吧。除此以外,

如果是免费的话,可以去中心广场。除此以外,

如果你的对手在一个角落里打球,那就到对面的角落。除此以外,

如果存在,则采取空角。除此以外,

拿任何空的广场。

许多AI算法都能够从数据中学习;他们可以通过学习新的启发式(策略或“经验法则”,在过去运作良好)来增强自己,或者自己可以编写其他算法。下面描述的一些“学习者”,包括贝叶斯网络,决策树和最近邻居,理论上可以(给定无限数据,时间和记忆)学习近似任何函数,包括哪种数学函数组合最能描述世界[引证需要]。因此,这些学习者可以通过考虑每个可能的假设并将它们与数据相匹配来获得所有可能的知识。实际上,由于“组合爆炸”现象,解决问题所需的时间呈指数增长,因此几乎不可能考虑所有可能性。人工智能研究的大部分内容涉及如何识别和避免考虑不太可能有益的广泛可能性。[60] [61]例如,在查看地图并寻找从东部的丹佛到纽约的最短行车路线时,大多数情况下可以跳过通过旧金山或远至西部的其他地区的任何路径;因此,使用像A *这样的寻路算法的AI可以避免如果必须依次仔细考虑每条可能的路线而发生的组合爆炸。[62]


人工智能的最早(也是最容易理解的)方法是象征(如形式逻辑):“如果一个健康的成年人发烧,那么他们可能患有流感”。第二种更为一般的方法是贝叶斯推论:“如果当前患者发烧,则以这样的方式调整他们感染流感的概率”。在常规商业AI应用中非常流行的第三种主要方法是SVM和最近邻的类比器:“在检查已知过去患者的记录后,其温度,症状,年龄和其他因素大多与当前患者匹配,X%那些病人原来是流感“。第四种方法难以直观地理解,但受到大脑机械如何工作的启发:人工神经网络方法使用人工“神经元”,通过将自身与期望输出进行比较并改变其内部神经元之间的连接强度来学习“强化”似乎有用的联系。这四种主要方法可以相互重叠,也可以与进化系统重叠;例如,神经网络可以学习推理,推广和进行类比。有些系统隐含或明确地使用了这些方法中的多种,以及许多其他AI和非AI算法; [63]最佳方法通常根据问题而不同。[64] [65]


学习算法的工作基础是,过去运作良好的策略,算法和推论可能会在未来继续良好运作。这些推论可能是显而易见的,例如“自从太平洋每天早晨过去一万天起,它明天早上也可能上升”。它们可以是细致入微的,例如“X%的家庭在地理上分离的物种具有颜色变体,因此存在未被发现的黑天鹅的可能性”。学习者也在“奥卡姆剃刀”的基础上工作:解释数据最简单的理论是最有可能的。因此,根据奥卡姆的剃刀原则,学习者必须被设计成使其更喜欢简单理论和复杂理论,除非复杂理论被证明更好。


蓝线可能是由于随机噪声而过度拟合线性函数的示例。

解决一个糟糕的,过于复杂的理论,以适应所有过去的训练数据被称为过度拟合。许多系统试图通过根据数据与数据的匹配程度来奖励理论来减少过度拟合,但是根据理论的复杂程度来惩罚理论。[66]除了经典的过度拟合,学习者还可以通过“学习错误的教训”而失望。一个玩具的例子是,只对棕色马和黑猫的照片进行训练的图像分类器可能会得出结论,所有棕色斑块都可能是马。[67]一个真实的例子是,与人类不同,当前的图像分类器不确定图像的分量之间的空间关系;相反,他们学习人类无视的像素的抽象模式,但与某些类型的真实物体的图像线性相关。在合法图像上微弱地叠加这样的图案会导致系统错误分类的“对抗性”图像。[c] [68] [69] [70]


自动驾驶汽车系统可以使用神经网络来确定图像的哪些部分看起来与先前的行人训练图像相匹配,然后将这些区域建模为缓慢但有些不可预测的矩形棱镜,必须避免。[71] [ 72]

与人类相比,现有的AI缺乏人类“常识推理”的几个特征;最值得注意的是,人类拥有强大的推理“天真物理学”的机制,如空间,时间和物理相互作用。这使得即使是年幼的孩子也可以轻松地做出推断,例如“如果我将这支笔从桌子上滚下来,它会落在地板上”。人类还有一个强大的“民间心理学”机制,帮助他们解释自然语言句子,如“市议员拒绝示威者因为他们主张暴力而获得许可”。 (一般人工智能难以辨别被指控提倡暴力的人是否是议员或示威者。)[73] [74] [75]这种缺乏“常识”意味着人工智能经常会犯下与人类不同的错误,以一种看似难以理解的方式。例如,现有的自动驾驶汽车无法以人类的确切方式推断行人的位置和意图,而必须使用非人类推理模式来避免事故。[76] [77] [78]


问题

人工智能的总体研究目标是创建允许计算机和机器以智能方式运行的技术。模拟(或创建)智能的一般问题已经分解为子问题。这些由研究人员期望智能系统显示的特定特征或能力组成。下面描述的特征受到了最多的关注。[14]


推理,解决问题

早期的研究人员开发了一些算法,模仿人类在解决谜题或进行逻辑演绎时使用的逐步推理。[79]到20世纪80年代末和90年代,人工智能研究开发了处理不确定或不完整信息的方法,采用了概率和经济学的概念。[80]


事实证明,这些算法不足以解决大型推理问题,因为它们经历了“组合爆炸”:随着问题变得越来越大,它们呈指数级变慢。[60]事实上,即使是人类也很少使用早期AI研究能够建模的逐步演绎。他们使用快速,直观的判断来解决他们的大多数问题。[81]


知识表示


本体将知识表示为域内的一组概念以及这些概念之间的关系。

主要文章:知识表示和常识知识

知识表示[82]和知识工程[83]是经典人工智能研究的核心。一些“专家系统”试图将某些狭隘领域的专家所拥有的显性知识聚集在一起。此外,一些项目试图将普通人已知的“常识知识”收集到包含有关世界的广泛知识的数据库中。综合常识知识库将包含的内容包括:对象,属性,类别和对象之间的关系; [84]情境,事件,状态和时间; [85]原因和结果; [86]知识知识(我们所知道的)关于其他人知道的事情; [87]以及许多其他研究较少的领域。 “存在什么”的表示是本体:正式描述的对象,关系,概念和属性的集合,以便软件代理可以解释它们。这些语义被捕获为描述逻辑概念,角色和个体,并且通常在Web Ontology Language中实现为类,属性和个体。[88]最普遍的本体被称为上层本体,它试图通过充当领域本体之间的介体来为所有其他知识[89]提供基础,这些领域本体涵盖了关于特定知识领域(感兴趣的领域或关注领域)的特定知识。这种形式知识表示可用于基于内容的索引和检索,[90]场景解释,[91]临床决策支持,[92]知识发现(从大型数据库中挖掘“有趣”和可操作的推论),[93]和其他地区。[94]


知识表示中最困难的问题是:

默认推理和资格问题

人们所知道的许多事情都采取“工作假设”的形式。例如,如果一只鸟出现在谈话中,人们通常会想象一种拳头大小,唱歌和苍蝇的动物。关于所有鸟类,这些都不是真的。约翰麦卡锡在1969年[95]将此问题确定为资格问题:对于AI研究人员所关注的任何常识规则,往往存在大量例外情况。在抽象逻辑需要的方式中,几乎没有任何东西是真或假的。人工智能研究已探索了解决这一问题的若干解决方案。[96]


广泛的常识知识

普通人知道的原子事实的数量非常大。试图建立一个完整的常识知识基础知识库(例如,Cyc)的研究项目需要大量繁琐的本体论工程 - 它们必须一次手工建立一个复杂的概念。[97]

一些常识知识的子符号形式

人们所知道的大部分内容并不代表他们可以口头表达的“事实”或“陈述”。例如,国际象棋大师将避免特定的国际象棋位置,因为它“感觉太暴露”[98]或艺术评论家可以看一眼雕像并意识到它是假的。[99]这些是人类大脑中无意识和次象征的直觉或倾向。[100]像这样的知识为象征性的,有意识的知识提供信息,支持并提供背景。与子符号推理的相关问题一样,希望位于人工智能,计算智能或统计AI将提供表示这种知识的方法。[100]


规划


分层控制系统是一种控制系统形式,其中一组设备和管理软件以层次结构排列。

主要文章:自动计划和安排

智能代理必须能够设定目标并实现目标。[101]他们需要一种可视化未来的方式 - 一种世界状况的表示,并能够预测他们的行为将如何改变它 - 并且能够做出最大化可用选择的效用(或“价值”)的选择。[102]


在经典规划问题中,代理人可以假设它是世界上唯一的行动系统,允许代理人确定其行为的后果。[103]但是,如果代理人不是唯一的参与者,那么它要求代理人可以在不确定的情况下进行推理。这需要一个不仅可以评估其环境和进行预测的代理人,还可以评估其预测并根据其评估进行调整。[104]


多智能体规划使用许多代理的合作和竞争来实现给定的目标。诸如此类的紧急行为被进化算法和群体智能所使用。[105]


学习



学习

主要文章:机器学习

机器学习(ML)是自该领域开始以来人工智能研究的一个基本概念,[106]是对通过经验自动改进的计算机算法的研究。[107] [108]


无监督学习是指在输入流中找到模式的能力,而无需人类首先标记输入。监督学习包括分类和数值回归,这需要人首先标记输入数据。分类用于确定某个类别属于哪个类别,并且在程序看到来自多个类别的多个事例之后发生。回归是试图产生一种描述输入和输出之间关系的函数,并预测输出在输入变化时应如何变化。[108]尝试学习未知(可能是隐含的)函数,可以将分类器和回归学习器视为“函数逼近器”;例如,垃圾邮件分类器可以被视为学习从电子邮件文本映射到两个类别之一的功能,“垃圾邮件”或“非垃圾邮件”。计算学习理论可以通过计算复杂性,样本复杂性(需要多少数据)或其他优化概念来评估学习者。[109]在强化学习[110]中,代理人会因良好反应而获得奖励,并因不良反应而受到惩罚。代理人使用这一系列的奖励和惩罚来形成在其问题空间中运作的策略。


自然语言处理


解析树根据某种形式语法表示句子的句法结构。

主要文章:自然语言处理

自然语言处理[111](NLP)使机器能够阅读和理解人类语言。一个足够强大的自然语言处理系统将支持自然语言用户界面和直接从人类书面来源获取知识,例如新闻专线文本。自然语言处理的一些直接应用包括信息检索,文本挖掘,问答[112]和机器翻译。[113]许多当前的方法使用单词共现频率来构造文本的句法表示。 “关键字发现”搜索策略很受欢迎,可扩展但却很愚蠢; “dog”的搜索查询可能只匹配带有文字“dog”的文档,并且会错过带有“poodle”一词的文档。 “词汇亲和力”策略使用诸如“意外”之类的词语的出现来评估文档的情绪。现代统计NLP方法可以结合所有这些策略以及其他策略,并且通常在页面或段落级别上达到可接受的准确度,但是仍然缺乏对孤立句子进行良好分类所需的语义理解。除了编码语义常识知识的常见困难之外,现有的语义NLP有时难以扩展以至于在业务应用程序中不可行。除了语义NLP之外,“叙事”NLP的最终目标是体现对常识推理的全面理解。[114]


知觉

主要文章:机器感知,计算机视觉和语音识别


特征检测(如图:边缘检测)帮助AI从原始数据中构成信息抽象结构。

机器感知[115]是使用来自传感器(例如相机(可见光谱或红外),麦克风,无线信号和有源激光雷达,声纳,雷达和触觉传感器)的输入来推断世界各方面的能力。应用包括语音识别,[116]面部识别和物体识别。[117]计算机视觉是分析视觉输入的能力。这种输入通常是模棱两可的;一个巨大的,五十米高的行人可以产生与附近正常大小的行人完全相同的像素,要求AI判断不同解释的相对可能性和合理性,例如通过使用其“对象模型”来评估那个五十米的行人不存在。[118]


动作和操纵

主要文章:机器人

人工智能大量使用人工智能。[119]现代工厂中广泛使用的先进机器人手臂和其他工业机器人可以从经验中学习如何在有摩擦和齿轮滑移的情况下高效移动。[120]现代移动机器人在给定小而静态可见的环境时,可以轻松确定其位置并绘制其环境图;然而,动态环境,例如(在内窥镜检查中)患者呼吸体的内部,提出了更大的挑战。运动规划是将运动任务分解为诸如个体关节运动之类的“原始”的过程。这种运动通常涉及顺应运动,这是一种运动需要与物体保持物理接触的过程。[121] [122] [123] Moravec的悖论概括说,人类认为理所当然的低级感觉运动技能,违反直觉,很难编入机器人;这个悖论是以汉斯·莫拉维克(Hans Moravec)的名字命名的,汉斯·莫拉维克在1988年表示“让计算机在智力测验或玩跳棋上表现出成人水平相当容易,并且很难或不可能给他们一岁时的技能。来到感知和流动“。[124] [125]

这归因于这样一个事实:与跳棋不同,身体灵活性已成为数百万年来自然选择的直接目标。[126]


社交情报

主要文章:情感计算


基斯梅特,一个具有基本社交技能的机器人[127]

莫拉维克的悖论可以扩展到许多形式的社会智慧。[128] [129]自动驾驶车辆的分布式多智能体协调仍然是一个难题。[130]情感计算是一个跨学科的保护伞,包括识别,解释,处理或模拟人类影响的系统。[131] [132] [133]与情感计算相关的适度成功包括文本情感分析,以及最近的多模态情感分析(参见多模式情感分析),其中AI对录像主题所显示的影响进行分类。[134]


从长远来看,社交技能和对人类情感和博弈论的理解对社会行动者来说是有价值的。通过了解他人的动机和情绪状态来预测他人的行为,可以让代理人做出更好的决策。一些计算机系统模仿人类情感和表达,使人们对人类交往的情感动态更加敏感,或以其他方式促进人机交互。[135]同样,一些虚拟助手被编程为会话或甚至幽默地戏弄;这往往会让天真的用户对现有计算机智能的实际智能程度有一个不切实际的概念。[136]


一般情报

主要文章:人工智能和AI完整

历史上,诸如Cyc知识库(1984-)和大规模日本第五代计算机系统计划(1982-1992)等项目试图涵盖人类认知的广度。这些早期项目未能摆脱非定量符号逻辑模型的局限,并且回想起来,大大低估了跨域AI的难度。如今,绝大多数现有的AI研究人员都采用易处理的“窄AI”应用(如医疗诊断或汽车导航)。[137]许多研究人员预测,在不同的个别领域中,这种“狭窄的AI”工作最终会被整合到具有人工智能(AGI)的机器中,结合本文中提到的大多数狭隘技能,在某些方面甚至超过人类的能力,或者所有这些领域。[18] [138]许多进步具有一般的跨领域意义。一个备受瞩目的例子是,2010年的DeepMind开发了一种“广义人工智能”,它可以自己学习许多不同的Atari游戏,后来开发了一个系统的变体,成功地顺序学习。[139] [140] [ 141]除了转移学习外,[142]假设的AGI突破可能包括开发可以参与决策理论元理论的反思架构,并弄清楚如何从整个非结构化网络中“汲取”综合知识库。[5]有些人认为某种(目前尚未发现的)概念上直截​​了当,但在数学上很难,“主算法”可能导致AGI。[143]最后,一些“紧急”方法看起来非常密切地模拟人类智能,并且相信像人工大脑或模拟儿童发展这样的拟人化特征有朝一日可能达到一般情报出现的临界点。[144] [145]


如果机器要像人们一样解决问题,那么本文中的许多问题也可能需要一般情报。例如,即使是特定的简单任务,如机器翻译,也要求机器以两种语言(NLP)进行读写,遵循作者的论证(理由),知道正在谈论的内容(知识),并忠实地再现作者的原创意图(社会情报)。机器翻译等问题被认为是“AI完全”,因为所有这些问题需要同时解决才能达到人机级别的机器性能。


途径

没有确定的统一理论或范例来指导人工智能研究。研究人员对许多问题持不同意见。[146]一些尚未得到解答的最长期问题是:人工智能是否应该通过研究心理学或神经生物学模拟自然智能?或者人类生物学与人工智能研究无关,因为鸟类生物学是航空工程?[15]能否使用简单,优雅的原则(如逻辑或优化)来描述智能行为?或者它是否一定需要解决大量完全不相关的问题?[16]


控制论和大脑模拟

主要文章:控制论和计算神经科学

在20世纪40年代和50年代,许多研究人员探索了神经生物学,信息理论和控制论之间的联系。他们中的一些人建造了使用电子网络来展示基本情报的机器,例如W. Grey Walter的海龟和约翰霍普金斯野兽。其中许多研究人员聚集在普林斯顿大学的远程学会和英格兰的比率俱乐部会议。[147]到1960年,这种方法基本上被放弃了,尽管它的要素将在20世纪80年代复兴。


象征

主要文章:符号AI

当人们在20世纪50年代中期开始使用数字计算机时,人工智能研究开始探索人类智能可以简化为符号操纵的可能性。该研究集中在三个机构:卡内基梅隆大学,斯坦福大学和麻省理工学院,如下所述,每个机构都有自己的研究方式。 John Haugeland将这些象征性的方法命名为AI“老式的AI”或“GOFAI”。[148]在20世纪60年代,符号方法在模拟小型示范项目的高层次思考方面取得了巨大成功。基于控制论或人工神经网络的方法被放弃或被推到后台。[149] 20世纪60年代和70年代的研究人员确信,符号方法最终将成功创造出具有人工智能的机器,并将其视为其领域的目标。


认知模拟

经济学家赫伯特·西蒙和艾伦·纽厄尔研究了人类解决问题的能力并试图将其正式化,他们的工作为人工智能领域奠定了基础,同时也为认知科学,运筹学和管理科学奠定了基础。他们的研究团队使用心理学实验的结果来开发模拟人们用来解决问题的技术的程序。以卡内基梅隆大学为中心的这一传统最终将在20世纪80年代中期开始发展Soar建筑。[150] [151]


逻辑为基础的

与西蒙和纽厄尔不同,约翰麦卡锡认为机器不需要模拟人类的思想,而应该试图找到抽象推理和解决问题的本质,无论人们是否使用相同的算法。[15]他在斯坦福大学(SAIL)的实验室专注于使用形式逻辑来解决各种各样的问题,包括知识表示,规划和学习。[152]逻辑也是爱丁堡大学和欧洲其他地方工作的重点,这导致了编程语言Prolog和逻辑程序设计科学的发展。[153]


反逻辑或邋

麻省理工学院的研究人员(如Marvin Minsky和Seymour Papert)[154]发现解决视觉和自然语言处理中的难题需要临时解决方案 - 他们认为没有简单而一般的原则(如逻辑)可以捕获所有智能行为的方方面面。 Roger Schank将他们的“反逻辑”方法描述为“邋”“(而不是CMU和斯坦福的”整洁“范式)。[16]常识知识库(例如Doug Lenat的Cyc)是“邋”“AI的一个例子,因为它们必须是手工制作,一次一个复杂的概念。[155]


基于知识的

当1970年左右有大型记忆的计算机出现时,来自这三种传统的研究人员开始在人工智能应用中建立知识。[156]这种“知识革命”促成了专家系统的开发和部署(由Edward Feigenbaum引入),这是第一个真正成功的AI软件形式。[38]所有专家系统的系统架构的关键组成部分是知识库,它存储说明AI的事实和规则。[157]知识革命也是由于认识到许多简单的AI应用程序需要大量的知识。


子象征

到了20世纪80年代,象征性AI的进展似乎停滞不前,许多人认为,象征系统永远无法模仿人类认知的所有过程,尤其是感知,机器人,学习和模式识别。许多研究人员开始研究特定AI问题的“次符号”方法。[17]子符号方法设法在没有特定知识表示的情况下接近智能。


体验智慧

这包括体现,定位,基于行为和新的AI。机器人相关领域的研究人员,如罗德尼布鲁克斯,拒绝了象征性人工智能,并专注于允许机器人移动和生存的基本工程问题。[158]他们的工作重新启动了20世纪50年代早期控制论研究者的非象征性观点,并重新引入了控制理论在人工智能中的应用。这与认知科学相关领域中具体的心理论题的发展同时发生:身体的各个方面(如运动,感知和可视化)是更高智力所必需的。


在发展机器人技术中,详细阐述了发展学习方法,以允许机器人通过自主自我探索,与人类教师的社交互动以及使用指导机制(主动学习,成熟,运动协同作用等)来积累新技能的曲目。 [159] [160] [161] [162]


计算智能和软计算

20世纪80年代中期,大卫·鲁梅哈特和其他人重新开始对神经网络和“联系主义”的兴趣。[163]人工神经网络是软计算的一个例子 - 它们是无法用完全逻辑确定性解决的问题的解决方案,并且近似解决方案通常就足够了。 AI的其他软计算方法包括模糊系统,灰色系统理论,进化计算和许多统计工具。软计算在人工智能中的应用由新兴的计算智能学科共同研究。[164]


统计学习

许多传统的GOFAI陷入了对符号计算的临时补丁,这些补丁对他们自己的玩具模型起作用,但未能推广到现实世界的结果。然而,在20世纪90年代,人工智能研究人员采用了复杂的数学工具,如隐马尔可夫模型(HMM),信息理论和规范的贝叶斯决策理论来比较或统一竞争架构。共享的数学语言允许与更成熟的领域(如数学,经济学或运筹学)进行高水平的合作。[d]与GOFAI相比,新的“统计学习”技术,如HMM和神经网络,正在获得更高的准确性。许多实际领域,如数据挖掘,无需获得对数据集的语义理解。现实世界数据的成功增加导致越来越强调将不同的方法与共享测试数据进行比较,以确定哪种方法在特定玩具模型提供的范围内在更广泛的环境中表现最佳;人工智能研究变得更加科学。如今,实验结果往往是严格可测量的,有时(很难)可重复。[39] [165]不同的统计学习技术有不同的局限性例如,基本的HMM无法模拟自然语言的无限可能组合。[166]批评者指出,从GOFAI向统计学习的转变往往也是从可解释的AI转移。在AGI研究中,一些学者警告不要过度依赖统计学习,并认为继续研究GOFAI仍然是获得一般智力所必需的。[167] [168]


整合方法

智能代理范例

智能代理是一种能够感知其环境并采取最大化其成功机会的行动的系统。最简单的智能代理是解决特定问题的程序。更复杂的代理人包括人类和人类组织(如公司)。该范例允许研究人员通过询问哪种代理最能最大化给定的“目标函数”来直接比较甚至将不同的方法结合到孤立的问题中。解决特定问题的代理可以使用任何有效的方法 - 一些代理是符号和逻辑的,一些是子符号人工神经网络,而另一些可能使用新方法。该范例还为研究人员提供了与其他领域(如决策理论和经济学)进行交流的通用语言,这些领域也使用抽象代理的概念。建立一个完整的代理人需要研究人员解决现实的整合问题;例如,由于感官系统提供有关环境的不确定信息,规划系统必须能够在存在不确定性的情况下发挥作用。智能代理范式在20世纪90年代被广泛接受。[169]

代理体系结构和认知体系结构

研究人员设计了系统,以便在多代理系统中通过交互智能代理构建智能系统。[170]分级控制系统在其最低级别的反应级别的子符号AI与最高级别的传统符号AI之间提供了桥梁,其中宽松的时间限制允许规划和世界建模。[171]一些认知架构是为解决一个狭窄的问题而定制的;其他人,如Soar,旨在模仿人类的认知并提供对一般情报的洞察力。 Soar的现代扩展是混合智能系统,包括符号和子符号组件。[172] [173] [174]

工具

AI开发了大量工具来解决计算机科学中最棘手的问题。下面讨论这些方法中最常见的一些方法。


搜索和优化

主要文章:搜索算法,数学优化和进化计算

通过智能搜索许多可能的解决方案,理论上可以解决AI中的许多问题:[175]推理可以简化为执行搜索。例如,逻辑证据可被视为搜索从前提到结论的路径,其中每一步都是推理规则的应用。[176]规划算法搜索目标和子目标树,试图找到目标目标的路径,这个过程称为手段结束分析。[177]用于移动肢体和抓取物​​体的机器人算法在配置空间中使用本地搜索。[120]许多学习算法使用基于优化的搜索算法。


对于大多数现实世界的问题,简单的穷举搜索[178]很少就足够了:搜索空间(搜索的地方数量)很快就会增长到天文数字。结果是搜索太慢或永远不会完成。对于许多问题,解决方案是使用“启发式”或“经验法则”来优先选择有利于那些更有可能达到目标的选择,并以较短的步骤进行选择。在某些搜索方法中,启发式方法还可以完全消除一些不太可能导致目标的选择(称为“修剪搜索树”)。启发式方案为解决方案的路径提供了“最佳猜测”。[179]启发式方法将搜索解决方案限制为较小的样本量。[121]


基于优化的数学理论,在20世纪90年代,一种截然不同的搜索变得突出。对于许多问题,可以用某种形式的猜测开始搜索,然后逐步细化猜测,直到不再进行细化。这些算法可以被视为盲目爬山:我们在景观上的随机点开始搜索,然后,通过跳跃或步骤,我们继续向上移动我们的猜测,直到我们到达顶部。其他优化算法是模拟退火,波束搜索和随机优化。[180]



寻求全局最小值的粒子群

进化计算使用一种优化搜索形式。例如,它们可以从一群生物(猜测)开始,然后允许它们变异和重组,只选择最适合每一代生存(精炼猜测)。经典的进化算法包括遗传算法,基因表达编程和遗传编程。[181]或者,分布式搜索过程可以通过群体智能算法进行协调。在搜索中使用的两种流行的群体算法是粒子群优化(受鸟群植入的启发)和蚁群优化(受蚂蚁踪迹的启发)。[182] [183]


逻辑

主要文章:逻辑编程和自动推理

逻辑[184]用于知识表示和问题解决,但它也可以应用于其他问题。例如,satplan算法使用逻辑进行规划[185],而归纳逻辑编程是一种学习方法。[186]


人工智能研究中使用了几种不同形式的逻辑。命题逻辑[187]涉及诸如“或”和“不”之类的真值函数。一阶逻辑[188]添加了量词和谓词,并且可以表达关于对象,它们的属性以及它们彼此之间关系的事实。模糊集合理论将“真实程度”(在0和1之间)分配给模糊的陈述,例如“爱丽丝老了”(或富有,或高,或饥饿),这些陈述在语言上太不精确,不完全是真或假。模糊逻辑成功地用于控制系统,允许专家提出模糊的规则,例如“如果你靠近目的地站并快速行驶,增加列车的制动压力”;然后可以在系统内对这些模糊的规则进行数值细化。模糊逻辑在知识库中不能很好地扩展;许多人工智能研究人员质疑链式模糊逻辑推理的有效性。[e] [190] [191]


默认逻辑,非单调逻辑和限制[96]是逻辑形式,旨在帮助默认推理和资格问题。已经设计了几种逻辑扩展来处理特定的知识领域,例如:描述逻辑; [84]情境演算,事件演算和流畅的演算(用于表示事件和时间); [85]因果演算; [86]信念演算; [192]和模态逻辑。[87]


总体而言,定性符号逻辑是脆弱的,并且在存在噪声或其他不确定性的情况下难以扩展。规则的例外情况很多,逻辑系统很难在存在矛盾规则的情况下发挥作用。[193] [194]


不确定推理的概率方法

主要文章:贝叶斯网络,隐马尔可夫模型,卡尔曼滤波器,粒子滤波器,决策理论和效用理论


Old Faithful喷发数据的期望最大化聚类从随机猜测开始,但随后成功地收敛于两种物理上不同的喷发模式的精确聚类。

AI中的许多问题(在推理,计划,学习,感知和机器人技术中)要求代理在不完整或不确定的信息下操作。人工智能研究人员利用概率论和经济学方法设计了许多有力的工具来解决这些问题。[195]


贝叶斯网络[196]是一种非常通用的工具,可用于大量问题:推理(使用贝叶斯推理算法),[197]学习(使用期望最大化算法),[f] [199]规划(使用决策网络)[200]和感知(使用动态贝叶斯网络)。[201]概率算法还可用于过滤,预测,平滑和查找数据流的解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。[201]与符号逻辑相比,正式的贝叶斯推断在计算上是昂贵的。为使推论易于处理,大多数观察必须在条件上彼此独立。具有菱形或其他“循环”(无向循环)的复杂图形可能需要复杂的方法,例如马尔可夫链蒙特卡罗,其在整个贝叶斯网络中传播随机步行者的集合并尝试收敛到条件概率的评估。在Xbox Live上使用贝叶斯网络来评估和匹配玩家;胜负是“证明”球员有多好[引证需要]。 AdSense使用拥有3亿多边缘的贝叶斯网络来了解要投放的广告。[193]


来自经济学的一个关键概念是“效用”:衡量某事物对智能代理人的价值。已经开发出精确的数学工具,使用决策理论,决策分析,[202]和信息价值理论分析代理人如何做出选择和计划。[102]这些工具包括马尔可夫决策过程,[203]动态决策网络,[201]博弈论和机制设计等模型。[204]


分类器和统计学习方法

主要文章:分类器(数学),统计分类和机器学习

最简单的AI应用程序可分为两种类型:分类器(“如果闪亮然后钻石”)和控制器(“如果闪亮然后拾取”)。然而,控制器也会在推断动作之前对条件进行分类,因此分类构成了许多AI系统的核心部分。分类器是使用模式匹配来确定最接近匹配的函数。它们可以根据示例进行调整,使其非常适合用于AI。这些例子被称为观察或模式。在监督学习中,每个模式属于某个预定义的类。可以将课程视为必须作出的决定。所有观察结果与其类别标签相结合被称为数据集。当收到新的观察结果时,该观察结果将根据以往的经验进行分类。[205]


可以以各种方式训练分类器;有许多统计和机器学习方法。决策树[206]可能是最广泛使用的机器学习算法。[207]其他广泛使用的分类器是神经网络,[208] k-最近邻算法,[g] [210]核方法,如支持向量机(SVM),[h] [212]高斯混合模型,[213]和非常流行的朴素贝叶斯分类器。[i] [215]分类器性能在很大程度上取决于要分类的数据的特征,例如数据集大小,跨类的样本分布,维度和噪声水平。如果假设模型非常适合实际数据,则基于模型的分类器表现良好。否则,如果没有可用的匹配模型,并且如果准确性(而不是速度或可伸缩性)是唯一关注的问题,那么传统观点认为,判别分类器(尤其是SVM)往往比基于模型的分类器(如“朴素贝叶斯”)更准确。在大多数实际数据集上。[216] [217]


人工神经网络

主要文章:人工神经网络和联结主义


神经网络是一组相互连接的节点,类似于人脑中庞大的神经元网络。

神经网络的灵感来自人脑中神经元的结构。一个简单的“神经元”N接受来自多个其他神经元的输入,每个神经元在激活(或“触发”)时,对神经元N本身应该激活还是反对加权“投票”。学习需要算法根据训练数据调整这些权重;一个简单的算法(被称为“火在一起,连在一起”)是为了增加两个连接的神经元之间的重量,当一个激活一个触发成功激活另一个神经元。神经网络形成“概念”,这些“概念”分布在共同[j]神经元的子网中,这些神经元倾向于一起发射;意思是“腿”的概念可以与子网络耦合,意思是“脚”,其包括“脚”的声音。神经元具有连续的激活谱;此外,神经元可以非线性方式处理输入,而不是权衡直接投票。现代神经网络可以学习连续函数,并且令人惊讶的是,数学逻辑运算。神经网络的早期成功包括预测股票市场和(在1995年)一种主要是自动驾驶的汽车。[k] [218]在2010年,使用深度学习的神经网络的进步将人工智能推向了广泛的公众意识并促成了巨大的企业人工智能支出升级;例如,2017年与人工智能相关的并购交易额是2015年的25倍。[219] [220]


非学习人工神经网络[208]的研究始于人工智能研究领域成立之前的十年,在Walter Pitts和Warren McCullouch的工作中。 Frank Rosenblatt发明了感知器,这是一个单层学习网络,类似于线性回归的旧概念。早期开拓者还包括Alexey Grigorevich Ivakhnenko,Teuvo Kohonen,Stephen Grossberg,Kunihiko Fukushima,Christoph von der Malsburg,David Willshaw,Shun-Ichi Amari,Bernard Widrow,John Hopfield,Eduardo R. Caianiello以及其他人[引证需要]。


网络的主要类别是非循环或前馈神经网络(信号仅在一个方向传递)和循环神经网络(允许反馈和先前输入事件的短期记忆)。最受欢迎的前馈网络包括感知器,多层感知器和径向基础网络。[221]神经网络可以应用于智能控制(用于机器人)或学习的问题,使用诸如Hebbian学习(“一起火,一起连线”),GMDH或竞争性学习等技术。[222]


今天,神经网络通常由反向传播算法训练,后者自1970年以来一直作为Seppo Linnainmaa [223] [224]发表的自动分化的反向模式,并由Paul Werbos引入神经网络。[225] [ 226] [227]


分层时间记忆是一种模拟新皮层的一些结构和算法属性的方法。[228]


总而言之,大多数神经网络在手工创建的神经拓扑上使用某种形式的梯度下降。然而,一些研究小组,如优步,认为简单的神经进化可以改变新的神经网络拓扑和权重,可能与复杂的梯度下降方法竞争[引证需要]。神经进化的一个优点是它可能不太容易陷入“死胡同”。[229]


深前馈神经网络

主要文章:深度学习

深度学习是任何可以学习长链因果关系的人工神经网络[可疑 - 讨论]。例如,具有六个隐藏层的前馈网络可以学习七链路因果链(六个隐藏层+输出层)并且具有七个“信用分配路径”(CAP)深度[需要引证]。许多深度学习系统需要能够长度学习十个或更多因果关系。[230]深度学习已经改变了人工智能的许多重要子领域[为什么?],包括计算机视觉,语音识别,自然语言处理等。[231] [232] [230]


根据一个概述,[233]“深度学习”一词由Rina Dechter于1986年引入机器学习社区[234],并在Igor Aizenberg及其同事在2000年将其引入人工神经网络后获得了关注。[235]第一个功能性深度学习网络由Alexey Grigorevich Ivakhnenko和V. G. Lapa于1965年出版。[236] [页面需要]这些网络一次训练一层。 Ivakhnenko在1971年发表的论文[237]描述了一种深度前馈多层感知器的学习方法,它有八层,已经比许多后来的网络深得多。 2006年,Geoffrey Hinton和Ruslan Salakhutdinov的出版物介绍了另一种预先训练多层前馈神经网络(FNN)的方法,每层一层,依次将每一层视为无监督的受限玻尔兹曼机器,然后使用监督反向传播微调。[238]与浅层人工神经网络类似,深度神经网络可以模拟复杂的非线性关系。在过去几年中,机器学习算法和计算机硬件的进步已经导致更有效的方法来训练包含许多非线性隐藏单元层和非常大的输出层的深度神经网络。[239]


深度学习通常使用卷积神经网络(CNN),其起源可以追溯到1980年由Kunihiko Fukushima引入的Neocognitron。[240]在1989年,Yann LeCun及其同事将反向传播应用于这种架构。在21世纪初,在工业应用中,CNN已经处理了在美国所有支票中估计的10%到20%。[241]自2011年以来,在GPU上快速实施CNN已经赢得了许多视觉模式识别竞赛。[230]


带有12个卷积层的CNN与Deepmind的“AlphaGo Lee”强化学习结合使用,该计划在2016年击败了一位顶级围棋冠军。[242]


深度递归神经网络

主要文章:循环神经网络

早期,深度学习也应用于循环神经网络(RNNs)的序列学习[243],理论上图灵完成[244]并且可以运行任意程序来处理任意输入序列。 RNN的深度是无限的,取决于其输入序列的长度;因此,RNN是深度学习的一个例子。[230] RNN可以通过梯度下降[245] [246] [247]进行训练,但遭遇消失梯度问题。[231] [248] 1992年,研究表明,对一堆递归神经网络进行无监督的预训练可以加速深度序贯问题的后续监督学习。[249]


许多研究人员现在使用由Hochreiter&Schmidhuber在1997年出版的深度学习复发NN的变体,称为长期短期记忆(LSTM)网络。[250] LSTM通常由联系主义时间分类(CTC)进行培训。[251]谷歌,微软和百度这种方法彻底改变了语音识别。[252] [253] [254]例如,在2015年,谷歌的语音识别通过CTC培训的LSTM经历了49%的惊人表现,现在可通过谷歌语音向数十亿智能手机用户提供。[255]谷歌还使用LSTM来改进机器翻译,[256]语言建模[257]和多语言语言处理。[258] LSTM与CNN结合还改进了自动图像字幕[259]以及众多其他应用。


评估进展

更多信息:人工智能的进展以及人工智能的竞赛和奖项

AI,如电力或蒸汽机,是一种通用技术。关于如何描述AI往往擅长哪些任务,尚未达成共识。[260]虽然像AlphaZero这样的项目已经成功地从头开始创建自己的知识,但许多其他机器学习项目需要大量的训练数据集。[261] [262]研究员Andrew Ng建议,作为一种“非常不完美的经验法则”,“几乎任何典型的人都可以用不到一秒的精神思想来做,我们现在或者在不久的将来可以自动使用AI。”[263莫拉维奇的悖论表明人工智能在许多人类大脑已经发展得很好的任务上落后于人类。[126]


游戏提供了一个广为人知的基准,用于评估进度。 AlphaGo在2016年左右带来了古典棋盘游戏基准时代的结束。不完全知识的游戏为人工智能在博弈论领域提出了新的挑战。[264] [265]星际争霸等电子竞技继续提供额外的公共基准。[266] [267]有许多竞赛和奖项,如Imagenet Challenge,以促进人工智能研究。最常见的竞争领域包括一般机器情报,会话行为,数据挖掘,机器人汽车,机器人足球以及传统游戏。[268]


“模仿游戏”(1950年图灵测试的一种解释,评估计算机是否可以模仿人类)如今被认为太过可以利用而无法成为有意义的基准。[269]图灵测试的衍生物是完全自动化的公共图灵测试,告诉计算机和人类公寓(CAPTCHA)。顾名思义,这有助于确定用户是真人,而不是冒充人的计算机。与标准的图灵测试相反,CAPTCHA由机器施用并且针对人而不是由人施用并且靶向机器。计算机要求用户完成简单测试,然后为该测试生成等级。计算机无法解决问题,因此正确的解决方案被认为是参加测试的人的结果。常见类型的CAPTCHA是一种测试,需要输入出现在计算机无法解密的图像中的扭曲字母,数字或符号。[270]


提议的“通用智能”测试旨在比较机器,人类甚至非人类动物在尽可能通用的问题集上的表现。在极端情况下,测试套件可以包含所有可能的问题,由Kolmogorov复杂度加权;不幸的是,这些问题集往往受到贫困模式匹配练习的支配,其中调整后的人工智能很容易超过人类的表现水平。[271] [272]


应用


在网页上提供客户服务的自动在线助理 - 人工智能的许多非常原始的应用程序之一

主要文章:人工智能的应用

人工智能与任何智力任务有关。[273]现代人工智能技术很普遍,而且数量太多,无法在此列出。通常,当一项技术达到主流使用时,它不再被视为人工智能;这种现象被描述为AI效应。[274]


高调的人工智能示例包括自动驾驶汽车(如无人机和自动驾驶汽车),医疗诊断,创作艺术(如诗歌),证明数学定理,玩游戏(如国际象棋或围棋),搜索引擎(如谷歌搜索),在线助理(如Siri),照片中的图像识别,垃圾邮件过滤,预测航班延误,[275]预测司法判决[276]和针对在线广告。[273] [277] [278]


随着社交媒体网站超越电视作为年轻人和新闻机构越来越依赖社交媒体平台进行分发的新闻来源,[279]主要出版商现在使用人工智能(AI)技术更有效地发布故事并产生更高的数量流量。[280]


卫生保健

主要文章:医疗保健中的人工智能


Da Vinci手术系统的患者侧手术臂

人工智能正在应用于剂量问题的高成本问题 - 研究结果表明人工智能可以节省160亿美元。 2016年,加利福尼亚州的一项开创性研究发现,在人工智能的帮助下开发的数学公式正确地确定了给予器官患者的免疫抑制药物的准确剂量。[281]



手的X射线,通过计算机软件自动计算骨龄

人工智能通过协助医生进入医疗保健行业。根据Bloomberg Technology的说法,微软已经开发出AI来帮助医生找到适合癌症的治疗方法。[282]有大量研究和药物开发与癌症有关。具体而言,有800多种药物和疫苗可用于治疗癌症。这对医生产生了负面影响,因为有太多的选择可供选择,使得为患者选择合适的药物变得更加困难。微软正在开发一个名为“汉诺威”的机器[需要引证]。其目标是记住癌症所需的所有论文,并帮助预测哪种药物组合对每位患者最有效。目前正在研究的一个项目是对抗骨髓性白血病,这是一种致命的癌症,几十年来治疗没有改善。据报道,另一项研究发现人工智能与训练有素的医生一样,可以识别皮肤癌。[283]另一项研究是使用人工智能来尝试和监测多名高危患者,这是通过根据从现场医生到患者之间的相互作用获得的数据向每位患者询问许多问题来完成的。[284]一项研究是通过转移学习进行的,机器进行了类似于训练有素的眼科医生的诊断,并且可以在30秒内就患者是否应该转诊进行治疗做出决定,准确率超过95%[285]。 ]


据美国有线电视新闻网报道,华盛顿儿童国家医疗中心的外科医生最近的一项研究成功地展示了使用自主机器人的手术。该团队称,该团队在进行软组织手术时对机器人进行了监督,在开放手术期间将猪的肠道缝合在一起,并且比人类外科医生做得更好。[286] IBM已经创建了自己的人工智能计算机IBM Watson,它击败了人类智能(在某些层面)。 Watson不仅赢得了游戏节目Jeopardy!对抗前冠军,[287]但在成功诊断出患有白血病的女性后被宣布为英雄。[288]


汽车

主要文章:无人驾驶汽车

AI的进步通过自动驾驶车辆的创造和发展促进了汽车行业的发展。截至2016年,有超过30家公司利用人工智能创建无人驾驶汽车。涉及人工智能的一些公司包括特斯拉,谷歌和苹果公司。[289]


许多组件有助于自动驾驶汽车的运行。这些车辆包括制动,车道变换,防撞,导航和制图等系统。这些系统以及高性能计算机一起被整合到一个复杂的车辆中。[290]


自动驾驶汽车的最新发展使得自动驾驶卡车的创新成为可能,尽管它们仍处于测试阶段。英国政府已通过立法,于2018年开始测试自动驾驶卡车排。[291]自动驾驶卡车排是由一辆非自动驾驶卡车引导的自动驾驶卡车车队,所以卡车排并不完全自主。与此同时,德国汽车公司戴姆勒正在测试Freightliner Inspiration,这是一种只能在高速公路上使用的半自动卡车。[292]


影响无驾驶汽车运行能力的一个主要因素是映射。通常,车辆将预先编程有被驱动区域的地图。该地图将包括关于路灯和路缘高度近似的数据,以便车辆了解其周围环境。然而,谷歌一直在研究一种算法,目的是不再需要预先编程的地图,而是创造一种能够适应各种新环境的设备。[293]一些自动驾驶汽车没有配备方向盘或刹车踏板,因此也开展了一项研究,重点是创建一种能够通过速度和驾驶条件意识为车辆乘客提供安全环境的算法。[294 ]


另一个影响无驾驶汽车能力的因素是乘客的安全。为了制造无驾驶汽车,工程师必须对其进行编程以处理高风险情况。这些情况可能包括与行人正面碰撞。汽车的主要目标应该是做出一个决定,避免撞到行人并拯救乘客。但是,汽车有可能需要做出让某人陷入危险的决定。换句话说,汽车需要决定拯救行人或乘客。[295]在这些情况下,汽车的编程对于成功的无驾驶汽车至关重要。


财经

金融机构长期以来一直使用人工神经网络系统来检测规范之外的指控或索赔,并将其标记为人类调查。人工智能在银行业的使用可以追溯到1987年美国安全太平洋国家银行设立欺诈预防工作组以防止未经授权使用借记卡[需要引证]。像Kasisto和Moneystream这样的程序在金融服务中使用AI。


银行今天使用人工智能系统来组织运营,维护簿记,投资股票和管理房产。人工智能可以在一夜之间或在没有业务发生时对变化作出反应。[296] 2001年8月,机器人在模拟金融交易竞赛中击败了人类。[297]人工智能还通过监测用户对任何异常变化或异常情况的行为模式,减少了欺诈和金融犯罪。[298]


市场上的人工智能机器在网上交易和决策等应用中的使用改变了主要的经济理论。[299]例如,基于人工智能的购买和销售平台改变了供需规律,因为现在可以轻松估算个性化的需求和供给曲线,从而实现个性化定价。此外,AI机器减少了市场中的信息不对称,从而使市场更有效率,同时减少交易量[需要引证]。此外,市场中的人工智能限制了市场行为的后果,使市场更有效[需要引证]。人工智能产生影响的其他理论包括理性选择,理性预期,博弈论,刘易斯转折点,投资组合优化和反事实思维[需要引证]。


政府

主要文章:政府中的人工智能

另见:中国的大规模监视

与面部识别系统配对的人工智能可用于大规模监视。在中国的某些地方已经是这种情况了。[300] [301]


视频游戏

主要文章:人工智能(电子游戏)

在视频游戏中,人工智能通常用于在非玩家角色(NPC)中生成动态有目的的行为。此外,众所周知的AI技术通常用于寻路。一些研究人员认为游戏中的NPC AI是大多数生产任务的“解决问题”。拥有更多非典型AI的游戏包括Left 4 Dead(2008)的AI导演和Supreme Commander 2(2010)的排的神经进化训练。[302] [303]


军事

更多信息:人工智能军备竞赛,致命自主武器和无人作战飞行器

全球每年在机器人方面的军费开支从2010年的51亿美元增加到2015年的75亿美元。[304] [305]能够自主行动的军用无人机被广泛认为是有用的资产。[306]许多人工智能研究人员试图将自己与人工智能的军事应用保持距离。[307]


审计

对于财务报表审计,AI可以进行持续审计。 AI工具可以立即分析多组不同的信息。潜在的好处是整体审计风险将会降低,保证水平会提高,审计的时间会缩短。[308]


广告

可以使用人工智能来预测或概括客户的数字足迹行为,以便通过个性化促销或自动构建客户角色来定位客户。[309]一份记录在案的案例报告称,在线赌博公司正在使用人工智能来改善客户定位。[310]


此外,人格计算AI模型的应用可以通过将心理定位添加到更传统的社会人口统计学或行为目标来帮助降低广告活动的成本。[311]


艺术

更多信息:计算机艺术

人工智能激发了众多创造性应用,包括其用于制作视觉艺术。 MoMA [312]的“思维机器:计算机时代的艺术与设计,1959-1989”展览很好地概述了人工智能在艺术,建筑和设计方面的历史应用。最近展出人工智能用于制作艺术品的展览包括谷歌赞助的旧金山灰色地带基金会的拍卖和拍卖,艺术家在那里尝试了深度算法[313]和展览“Unhuman:AI时代的艺术, “于2017年秋季在洛杉矶和法兰克福举行。[314] [315]在2018年春天,计算机协会就计算机和艺术的主题专门刊登了一个特刊,强调了机器学习在艺术中的作用。[316]


哲学与伦理

主要文章:人工智能哲学和人工智能伦理学

有三个与AI相关的哲学问题:


人工一般情报可能吗?机器能解决人类可以用智能解决的任何问题吗?或者机器可以实现什么?

智能机器危险吗?我们如何确保机器符合道德规范并且符合道德规范?

机器能否具有与人类完全相同的心灵,意识和心理状态?机器能够有感觉,因此应该得到某些权利吗?机器故意造成伤害吗?

人工智能的极限

主要文章:AI哲学,图灵测试,物理符号系统假设,Dreyfus对AI的批判,皇帝的新思维和AI效应

机器可以智能吗?可以“思考”吗?


艾伦图灵的“礼貌约定”

我们无需决定机器是否可以“思考”;我们只需要决定一台机器是否可以像人类一样聪明地行动。这种与人工智能相关的哲学问题的方法构成了图灵测试的基础。[317]

达特茅斯提案

“可以如此精确地描述学习的每个方面或任何其他智能特征,以便可以使机器模拟它。”这个猜想印在1956年达特茅斯会议的提案中,代表了大多数工作人工智能研究人员的立场。[318]

纽厄尔和西蒙的物理符号系统假说

“物理符号系统具有必要和充分的一般智能行动手段。”纽厄尔和西蒙认为,情报包括对符号的正式操作。[319]休伯特·德雷福斯认为,恰恰相反,人类的专业知识取决于无意识的本能,而不是有意识的符号操纵,以及对情境的“感觉”,而不是明确的象征性知识。 (参见德雷福斯对人工智能的批评。)[320] [321]

哥德尔的论点

哥德尔本人,[322]约翰卢卡斯(1961年)和罗杰彭罗斯(1989年以后更详细的论证)提出了高度技术性的论点,即人类数学家可以始终如一地看到他们自己的“哥德尔陈述”的真实性,因此具有超越计算能力机械图灵机。[323]然而,科学和数学界的现代共识是这些“哥德尔论证”失败了。[324] [325] [326]

人工脑论证

大脑可以通过机器模拟,因为大脑是智能的,模拟的大脑也必须是智能的;因此机器可以是智能的。 Hans Moravec,Ray Kurzweil和其他人认为,将大脑直接复制到硬件和软件中是技术上可行的,并且这种模拟与原始模拟基本相同。[144]

AI效果

机器已经很聪明,但观察者却未能认识到它。当深蓝在国际象棋中击败加里卡斯帕罗夫时,机器表现得非常聪明。然而,旁观者通常认为人工智能程序的行为不是“真正的”智能,而是通常会对人工智能程序的行为进行打折。因此,“真正的”智能是人们可以做的任何机器仍然无法做到的智能行为。这被称为AI效应:“AI是尚未完成的任何事情。”

潜在的伤害

人工智能的广泛使用可能会带来危险或不可取的意外后果。来自生命未来研究所的科学家们描述了一些短期研究目标,以了解人工智能如何影响经济,人工智能所涉及的法律和道德以及如何最大限度地降低人工智能安全风险。从长远来看,科学家们已提议继续优化功能,同时尽量减少新技术带来的安全风险。[327]


人工智能和自动化的潜在负面影响是安德鲁杨的总统竞选的主要问题。[328]


存在风险

主要文章:人工一般情报的存在风险

物理学家斯蒂芬霍金,微软创始人比尔盖茨和SpaceX创始人伊隆马斯克已经表达了对人工智能可能演变到人类无法控制它的可能性的担忧,霍金认为这可能“拼写人类的终结”。 [329] [330] [331]


全人工智能的发展可能意味着人类的终结。一旦人类开发出人工智能,它就会自行腾飞,并以不断增加的速度重新设计自己。由于生物进化缓慢而受到限制的人类无法竞争并将被取代。


- ?斯蒂芬霍金[332]

在他的超级智能一书中,尼克博斯特罗姆提出了一个论点,即人工智能将对人类构成威胁。他认为,如果选择基于实现某个目标的行动,那么足够智能的AI将表现出融合行为,例如获取资源或保护自己不被关闭。如果这个人工智能的目标不能反映人性 - 一个例子是人工智能被告知计算尽可能多的pi数字 - 它可能会伤害人类以获取更多资源或防止自身被关闭,最终更好地实现其目标。


对人工智能风险的担忧导致了一些高调的捐赠和投资。包括Peter Thiel,亚马逊网络服务和马斯克在内的一群知名科技巨头已向OpenAI承诺投入10亿美元,这是一家旨在支持负责任的人工智能开发的非营利性公司。[333]人工智能领域的专家意见参差不齐,其中相当大的部分既有关又不关心最终超人能力的人工智能的风险。[334]其他技术行业领导者认为,人工智能有助于其目前的形式,并将继续帮助人类。甲骨文首席执行官马克赫德曾表示,人工智能“实际上将创造更多的就业机会,而不是更少的就业机会”,因为人类将需要管理人工智能系统。[335] Facebook首席执行官马克扎克伯格认为人工智能将“解锁大量积极的事情”,例如治愈疾病和提高自动驾驶汽车的安全性。[336]


2015年1月,Elon Musk向未来生命研究所捐赠了一千万美元,资助了解人工智能决策的研究。该研究所的目标是“发展我们管理的智慧”不断增长的技术力量。马斯克还资助开发人工智能的公司,如谷歌DeepMind和Vicarious,“只关注人工智能正在发生的事情。[337]我认为那里可能存在危险的结果。”[338] [339]


为了实现这种危险,假设的人工智能将不得不压倒或超越全人类,少数专家认为这种可能性在未来足够远,不值得研究。[340] [341]其他反驳主要围绕人类从人工智能的角度来看具有内在价值或融合价值。[342]


人性贬值

主要文章:计算机能力与人类理性

Joseph Weizenbaum写道,根据定义,人工智能应用程序不能成功地模拟真正的人类同理心,并且在客户服务或心理治疗等领域使用人工智能技术[343]是非常错误的。 Weizenbaum还担心人工智能研究人员(以及一些哲学家)愿意将人类思维视为计算机程序(现在称为计算主义)。对于Weizenbaum来说,这些观点表明人工智能研究会贬低人的生命。[344]


社会正义

一个问题是人工智能项目可能被编程为对某些群体有偏见,例如妇女和少数群体,因为大多数开发人员都是富有的白人男性。[345]男性(获得47%批准)的人工智能支持率高于女性(35%批准)。


算法在今天的法律制度中已经有很多应用,协助官员从法官到假释官和公设辩护人,以衡量被告重犯的预期可能性。[346] COMPAS(惩教罪犯管理概况的替代制裁的首字母缩写)是最广泛使用的商业解决方案之一。[346]有人提出,COMPAS为黑人被告分配了极高的再犯风险,而相反,则为白人被告人提供了统计上意外频繁的低风险估计。[347]


减少对人工的需求

进一步的信息:技术失业§21世纪

自动化与就业之间的关系很复杂。虽然自动化消除了旧工作,但它也通过微观经济和宏观经济效应创造了新的就业机会。[348]与以往的自动化浪潮不同,人工智能可以消除许多中产阶级的工作; “经济学人”指出,“人工智能可以对白领工作做出的担忧,即工业革命期间蒸汽动力对蓝领工作的影响”是“值得认真对待”。[349]对风险的主观估计差别很大;例如,Michael Osborne和Carl Benedikt Frey估计,47%的美国就业岗位处于潜在自动化的“高风险”,而经合组织的报告将美国9%的就业岗位归为“高风险”。[350] [351] [352] ]极端风险的工作范围从律师助理到快餐厨师,而从个人医疗保健到神职人员等与护理相关的职业的工作需求可能会增加。[353]作者马丁福特和其他人进一步说,大量的工作是常规的,重复的,并且(对于AI)是可预测的;福特警告说,这些工作可能在未来几十年内实现自动化,许多新工作可能无法“平均能力的人”获得,即使是再培训。经济学家指出,过去技术倾向于增加而不是减少总就业,但承认“我们处于人工智能的未知领域”。[22]


自主武器

另见:致命的自主武器

目前,已有50多个国家正在研究战场机器人,包括美国,中国,俄罗斯和英国。许多关注超级智能AI的风险的人也想限制使用人造士兵和无人机。[354]


道德机器

具有智能的机器有可能利用其智能来预防伤害并将风险降至最低;他们可能有能力使用道德推理来更好地选择他们在世界上的行为。该领域的研究包括机器伦理,人工道德代理和友好的人工智能。


人工道德代理人

Wendell Wallach在他的“道德机器”一书中介绍了人工道德行为者(AMA)的概念。对于Wallach来说,AMA已经成为人工智能研究领域的一部分,并以两个核心问题为指导,他认为这些问题是“人类想要的吗”制定道德决策的计算机“[356]和”可以(Ro)机器人真的是道德的“。[357]对于瓦拉赫来说,问题并不在于机器是否可以证明道德行为等同于社会可能对AMA发展产生的限制的问题。[358]


机器伦理

主要文章:机器伦理

机器伦理领域涉及给予机器道德原则,或者发现解决他们可能遇到的道德困境的方法,使他们能够通过自己的道德决策以道德责任的方式运作。[359]该领域在2005年秋季AAAI机器伦理研讨会上进行了描述:“过去关于技术与道德之间关系的研究主要集中在人类负责任和不负责任地使用技术上,有些人对人类应该如何应对感兴趣。在所有情况下,只有人类参与道德推理。现在是时候为至少一些机器添加道德维度了。认识涉及机器的行为的伦理影响,以及机器的近期和潜在发展与计算机黑客,软件财产问题,隐私问题和通常归因于计算机伦理的其他主题相比,机器伦理关注的是机器对人类用户和其他机器的行为。机器伦理研究是缓解计算机伦理的关键。对自治系统的关注 - 可以说没有这种自治系统的概念维度是机器智能的所有恐惧的根源。此外,对机器伦理的研究可以发现当前道德理论的问题,推进我们对道德的思考。“[360]机器伦理有时被称为机器道德,计算伦理或计算道德。这种新生的各种观点字段可以在收集的版本“机器伦理”[359]中找到,该版本源于2005年AAAI机器伦理研讨会。[360]


恶毒而友好的人工智能

主要文章:友好的AI

政治学家查尔斯·鲁宾认为人工智能既不能设计也不能保证是仁慈的。[361]他认为“任何足够先进的仁慈都可能与恶意无法区分。”人类不应该假设机器或机器人会对我们有利,因为没有先验的理由相信他们会同情我们的道德体系,这种道德体系已经与我们特定的生物学(AIs不会分享)一起发展。超智能软件可能不一定决定支持人类的继续存在,并且极难停止。这个主题最近也开始在学术出版物中作为文明,人类和地球风险的真正来源进行讨论。


解决这个问题的一个建议是确保第一个通用智能AI是“友好AI”,并且能够控制随后开发的AI。有人质疑这种检查是否真的可以保留到位。


领先的人工智能研究员罗德尼布鲁克斯写道,“我认为在未来几百年内随时担心我们开发恶意AI是一个错误。我认为这种担忧源于一个根本错误,即没有区分最近真正的进展之间的差异在人工智能的一个特定方面,以及建立有感知意志的巨大和复杂性。“[362]


机器意识,感知和思想

主要文章:人工意识

如果人工智能系统复制了人类智能的所有关键方面,那么该系统是否也会有感知力 - 它是否会有一种有意识体验的思维?这个问题与人类意识本质的哲学问题密切相关,通常被称为意识的难题。


意识

主要文章:困难的意识问题和心理理论

大卫查尔莫斯在理解心灵方面发现了两个问题,他将这个问题称为“困难”和“容易”的意识问题。[363]容易的问题是理解大脑如何处理信号,制定计划和控制行为。困难的问题在于解释这种感觉如何或为什么它应该感觉像什么。人类信息处理很容易解释,但人类的主观体验难以解释。


例如,考虑当一个人被展示颜色样本并识别它时会发生什么,并说“它是红色的”。简单的问题只需要了解大脑中的机器,使人们知道颜色样本是红色的。困难的问题是人们也知道别的东西 - 他们也知道红色的样子。 (考虑到一个天生失明的人可以知道某些东西是红色而不知道红色是什么样的。)[l]每个人都知道主观经验存在,因为他们每天都这样做(例如,所有视力的人都知道红色是什么样的)。困难的问题在于解释大脑如何创造它,它为什么存在,以及它与知识和大脑的其他方面有何不同。


计算主义和功能主义

主要文章:计算主义和功能主义(心灵哲学)

计算主义是心灵哲学中的一个位置,即人类思维或人类大脑(或两者)是一个信息处理系统,思维是一种计算形式。[364]计算主义认为,身心之间的关系与软件和硬件之间的关系相似或相同,因此可能是心身问题的解决方案。这种哲学立场的灵感来自于20世纪60年代人工智能研究人员和认知科学家的工作,最初由哲学家杰里福多和希拉里普特南提出。


强大的AI假设

主要文章:中国房间

John Searle命名为“强AI”的哲学立场指出:“具有正确输入和输出的适当编程的计算机因此具有与人类有同样意义的完全相同的思想。”[365] Searle用他的反对来反驳这个断言。中国房间的论点,要求我们查看电脑内部并试图找到“心灵”的位置。[366]


机器人权利

主要文章:机器人权利

如果可以创建具有智能的机器,它还能感觉到吗?如果能感觉到,它是否具有与人类相同的权利?这个问题,现在被称为“机器人权利”,目前正在考虑加利福尼亚州的未来研究所,尽管许多批评者认为讨论为时过早。[367]一些关于超人主义的批评者认为,任何假设的机器人权利都将存在于动物权利和人权的范围内。 [368] 2010年纪录片“即插即用”[369]以及许多科幻媒体,如“星际迷航”下一代,具有“指挥官数据”的特征,他们为了研究而被拆解,并希望“成为人类,和旅行者中的机器人全息图。


超级智能

主要文章:超级智能

智能机器或人机混合动力车是如何限制的?超级智能,超智能或超人智能是一种假设的代理人,拥有的智能远远超过最聪明,最有天赋的人类思维。超级智能也可以指这种代理人拥有的情报的形式或程度。[138]


技术奇点

主要文章:技术奇点和摩尔定律

如果对强AI的研究产生了足够智能的软件,它可能能够重新编程和改进自己。改进的软件在改善自身方面会更好,导致递归的自我改善。[370]因此,新的情报可能会以指数方式增长,并大大超过人类。科幻小说作家Vernor Vinge将这种情景命名为“奇点”。[371]技术奇点是当技术的加速进步将导致失控效应,其中人工智能将超过人类的智力能力和控制,从而彻底改变甚至结束文明。由于这种情报的能力可能无法理解,因此技术奇点是事件不可预测甚至不可思议的事件。[371] [138]


Ray Kurzweil使用摩尔定律(描述了数字技术的无情指数改进)来计算台式计算机到2029年将具有与人类大脑相同的处理能力,并预测奇点将在2045年发生。[371]


超人

主要文章:超人类主义

机器人设计师Hans Moravec,控制论家Kevin Warwick和发明家Ray Kurzweil预测,未来人类和机器将合并为更有能力,更强大的机器人。[372]这个想法被称为超人类主义,它源于奥尔德斯·赫胥黎和罗伯特·艾丁格。


爱德华弗雷德金认为“人工智能是进化的下一个阶段”,这是塞缪尔巴特勒早在1863年提出的“机器中的达尔文”中提出的一个想法,并在1998年由乔治戴森在其同名书中进行了扩展。 [373]


经济学

人工智能的长期经济影响尚不确定。一项针对经济学家的调查显示,对机器人和人工智能的使用增加是否会导致长期失业率大幅上升存在分歧,但他们普遍认为,如果重新分配生产力增益,这可能是净收益。[374]


在小说中

主要文章:小说中的人工智能


“机器人”这个词本身就是卡雷尔·卡佩克在1921年的戏剧“R.U.R”中创造的,这个名字代表着“罗森的通用机器人”。

自古以来,思想能力强的人工作为讲故事的装置出现,[24]并且一直是科幻小说中的一个持久主题。


这些作品中的一个常见比喻始于玛丽雪莱的弗兰肯斯坦,人类创造成为其主人的威胁。其中包括Arthur C. Clarke和Stanley Kubrick的2001:A Space Odyssey(均为1968年)等作品。



4 views0 comments

Recent Posts

See All

强化学习的未来 - 第1部分 Hunter Heidenreich

https://towardsdatascience.com/the-future-with-reinforcement-learning-part-1-26e09e9be901 2018年8月8日 想象一下,每个计算机系统都根据您自己的个性进行定制。它可以了解您的沟通方式以及您希望如何与之沟通的细微差别。与计算机系统的交互变得比以往任何时候都更加直观和技术素养天空火箭。这些是您在未来强化学习成为

简单解释:AI程序如何掌握Go的古老游戏

https://medium.com/free-code-camp/explained-simply-how-an-ai-program-mastered-the-ancient-game-of-go-62b8940a9080 这是关于AlphaGo,谷歌DeepMind的Go玩AI在2016年通过击败世界上最好的球员之一Lee Sedol震撼了技术世界。 Go是一款古老的棋盘游戏,每一步都有很多

bottom of page