人工智能(四)

3.4超出范式冲突的AI

此时,读者已经暴露于AI的主要形式主义,并可能怀疑桥接它们的异质方法。 AI是否有这样的研发? 是的。 从工程角度来看,这种工作不可抗拒的良好意义。 现在有一个理解,为了构建完成工作的应用程序,应该从一个工具箱中选择,包括逻辑员,概率/贝叶斯和神经计算机技术。 鉴于原来的自上而下的逻辑学家范例是活着的和蓬勃发展(例如,参见Brachman&Levesque 2004,Mueller 2006),并且如上所述,贝叶斯和神经科学方法的复苏已经放置这两个范式在坚实,肥沃的基础上,AI现在向前移动,武装了这一基本的三合会,它是一种虚拟确定的应用程序(例如,机器人)将通过从所有三个的元素中绘制来设计。 Watson的DeepQA架构是利用多种范例的工程系统的最新示例。 有关详细讨论,请参阅

Watson's DeepQA架构的补充。

Google DeepMind的alphago是多范式系统的另一个例子,但以比Watson更窄的形式。 游戏中的中央算法问题如Go或Chess,是通过大量的有效移动搜索。 对于大多数非琐碎的游戏,这是不可行的,这是不可穷的。 蒙特卡罗树搜索(MCTS)算法通过以统计方式搜索有效移动的巨大空间来围绕这个障碍(Browne等,2012)。 虽然MCTS是Alpago中的中央算法,但有两个神经网络有助于评估游戏中的国家,并帮助建模专家对手如何玩(Silver等,2016)。 应该指出的是,MCTS几乎落后于普通游戏播放中的所有获胜(Finnsson 2012)。

虽然,关于AI的主要范式的深刻,理论整合,是什么? 这种一体化目前只是未来的可能性,但读者旨在研究一些争取这种融合的研究。 例如:Sun(1994年,2002年)一直致力于表明,人类认知在其上面的象征性(例如,分析传统中的专业哲学,从认知是神经科学本质上的。 Koller(1997)调查了概率理论与逻辑之间的婚姻。 一般来说,由于寻求真正整合上面规定的三个范例(例如,Cassimatis 2006),最近的人为人级AI最近的到来是由寻求真正整合的三个范例领导的。

最后,我们注意到诸如SOAR(Laird 2012)和PovyScheme(Cassimatis 2006)等认知架构是可以找到不同领域的集成的另一个区域。 例如,一个这样的努力努力建立人级AI是伴侣项目(Forbus和Hinrichs 2006)。 伴侣是长期系统,努力成为人级AI系统,作为与人类合作者的作用。 同伴体系结构试图解决一个统一系统中的推理和学习,交互性和寿命等多个AI问题。

4. AI的爆炸性生长

正如我们上面所指出的那样,在过去几十年的几十年里,AI的工作遭到蘑菇。 既然我们已经看了一下占AI的内容,我们快速看看AI的爆炸性增长。

首先,澄清。 我们所说的增长并不是一种浅的排序,与给定的ai的给定子场提供的资金量相关。 所有领域都会发生这种事情,并且可以通过旨在种植某些地区的完全政治和财务变革来引发,并减少其他领域。 沿着同一条线,我们说的增长与围绕AI(或其子领域)旋转的工业活动量不相关; 对于这种增长,也可以在AI的科学广度的扩展之外迫使推动。[31] 相反,我们正在谈到深度内容的爆炸:有人打算与现场熟悉的新材料需要知道。 相对于其他领域,爆炸的尺寸可能是或可能不前所未有。 (尽管它可能会指出,哲学的类似增加将以完全新的形式主义的推理的发展标志着,在这一事实中反映了像COPI(2004)逻辑的长期哲学教科书大幅重写并扩大到包括这些形式主义,而不是剩下的锚定到基本上是不可变的核心形式主义,多年来边缘的增量细化。)但它肯定似乎是非常显着的,值得注意的是,如果有没有其他原因而不是AI的近期将在重要的部分中旋转,周围是否有问题是新的内容,无论是新的长期研究和发展的基础,否则将无法获得。[32]

AI还目睹了各种工件和应用中使用的爆炸。 虽然我们在根据上面的russell / hutht定义的所有场景中建立一个具有合理性的机器的机器,但是在zorels / huthe定义中,他们起源于AI研究的算法现在广泛地部署了各种域中的许多任务。

4.1机器学习绽放

通过机器学习子领域的新算法的发明,AI巨大的AI巨大部分是可能的。 机器学习涉及建筑系统,当给出任务的理想表现的示例时,在任务上提高他们的性能,或通过对任务的重复体验提高其性能。 来自机器学习的算法已用于语音识别系统,垃圾邮件过滤器,在线欺诈检测系统,产品推荐系统等。目前的机器学习最先进的机器学习可分为三个区域(墨菲2013,Alpaydin 2014):

监督学习:一种学习的形式,其中计算机尝试在其域中的各个点处学习其值的函数f,训练数据t,其值

t = {⟨x1,f(的x1)⟩,⟨x2,f(x2的)⟩,...,⟨xn,f(xn)⟩}。

样本任务将尝试使用人的名称标记面部的图像。 监督学习的监督以函数域某些部分的各个要点X处的函数f(x)的值的形式。 这通常以固定的输入和输出对的形式给出。 让H成为“学识渊博的功能” 监督学习的目标是H.尽可能地将True函数F匹配在同一域上。 误差通常在错误函数方面定义,例如,误差=σx∈tδ(f(x)-h(x)),在训练数据中,其他形式的监督和学习目标是可能的。 例如,在主动学习中,学习算法可以请求任意输入的函数的值。 监督学习主导机器学习领域,并且已在上面提到的几乎所有实际应用中使用。

无监督学习:在给定一些原始数据{x1,x2,...,xn}时,机器试图找到有用的知识或信息。 没有与必须学习的输入相关联的功能。 这个想法是,该机器有助于发现可以隐藏在数据中的有趣模式或信息。 无监督学习的一次使用是数据挖掘,其中搜索大量数据以获取有趣信息。 PageRank是谷歌搜索引擎使用的最早的算法之一,可以被认为是一个无人监督的学习系统,该系统在没有任何人类监督的情况下排名页面(第14.10章,Hastie等,2009)。

强化学习:这里,一台机器在一个环境中松动,在那里它不断行为和感知(类似于上面的Russell / Huther视图),并且仅偶尔地接收对其行为的反馈,以奖励或惩罚的形式。 机器必须学会从这个反馈中合理地表现。 一种使用强化学习的使用已经在建造代理商来玩电脑游戏。 这里的目标是建立在每次到游戏中何时到游戏中的感觉数据映射的代理商,这些动作会有助于在游戏中获胜或最大化人类球员对游戏的享受。 在大多数游戏中,我们知道我们只在游戏结束时才播放,或者仅在整个游戏中的罕见间隔(例如,我们觉得我们赢得的国际象棋游戏时,我们最终会迅速转向我们)。 在监督学习中,训练数据具有理想的输入输出对。 这种学习形式不适合在一段时间内运营的构建代理,并且不在一个动作上被判断,而是一系列行动及其对环境的影响。 强化学习领域试图通过各种方法来解决这个问题。 虽然有点日期,但萨顿和巴特(1998年)提供了全面介绍该领域。

除了在传统上用于AI的KEN的域中,还在科学过程的所有阶段使用了机器学习算法。 例如,现在经常应用机器学习技术来分析从粒子加速器产生的大量数据。 例如,CERN,每秒生成PBEABYTE(1015字节),以及将其OI的起源的统计算法用于过滤和分析此数据。 粒子促进剂用于物理学的基本实验研究,探讨了我们物理宇宙的结构。 它们通过将较大的颗粒束缚在一起,以产生更精细的颗粒。 并非所有此类活动都是富有成效的。 已经使用机器学习方法选择进一步分析的事件(Whiteson&Whiteson 2009和Baldi等,2014)。 最近,CERN的研究人员推出了机器学习竞争,以帮助分析HIGGS玻色子。 这一挑战的目标是开发算法,将来自大型特罗龙撞机的数据的背景噪声分离有意义的事件,核心核心委员会的粒子加速器。

在过去的几十年中,数据有一个没有任何明确的语义上附加的数据的爆炸。 该数据由人类和机器产生。 大多数此数据不易机器加工; 例如,图像,文本,视频(而不是在知识或数据库中仔细策划数据)。 这对一个巨大的行业产生了一种应用AI技术来获得来自这种巨大数据的可用信息。 这个应用从AI到大量数据的应用领域由“数据挖掘”,“大数据”,“分析”等的名称进行了诸如此类的名称,“分析”等。该领域在本文中甚至甚至中等覆盖,但我们注意到没有完全协议构成这样一个“大数据”问题。 来自Madden(2012)的一个定义是,大数据与传统的机器可加工数据不同,因为它太大(对于大多数现有的最先进的硬件),太快(以快速的速率生成,例如在线电子邮件事务)或太难。 它处于太难的部分,即AI技术也很好地工作。 虽然这个宇宙完全不同,但我们在本文后面使用Watson的系统作为AI相关的示范。 我们稍后会看到,而大多数新的爆炸是由学习提供动力的,而且它并不完全仅限于学习。 这种绽放在学习算法中已经通过神经计算机技术和概率技术的复兴来支持。

4.2神经计算机技术的重新训练

(Charniak&McDermott 1985)的一个显着方面之一是:作者说,AI的中央教条是“大脑所做的可能被认为是某种计算中的一个水平”(第6页)。 然而,这本书中无处可行的是讨论的脑的计算。 事实上,您将在徒劳的索引中搜索术语“神经网络”及其变体。 请注意,作者不责怪这一点。 AI的大部分增长来自于某种意义的脑基于脑,而不是基于逻辑的形式主义,工具和技术。 一种传达神经关键组成的重要性和成熟度的论文(Litt等人2006)。 (增长也来自70年代中期和80年代枯萎的概率技术。更多关于暂时的,在下一个“复兴”部分。)

一个非常突出的非逻辑师形式主义确实在大脑的方向上进行了明确的点头:viz,人工神经网络(或通常只是简称为神经网络,甚至只是神经网络)。 (上面讨论了神经网络的结构和更新的发展)。 因为米斯基和Pappert的(1969)感知者LED许多(包括,特别是艾的AI研发的许多赞助商)得出结论,神经网络没有足够的信息处理能力来模拟人类认知,形式主义几乎普遍掉落艾。 然而,Minsky和Pappert只考虑了非常有限的神经网络。 智力的观点,智力不在象征性处理中,而是至少符号处理,至少有些像在大脑中发现的那样(至少在蜂窝水平),由人工神经网络近似,在20世纪80年代早期咆哮着咆哮更复杂的这种网络形式,很快情况是(利用John McCarthy引入的比喻)在建立真正智能代理的比赛中两匹马。

如果必须选择连接的一年,那么它肯定是1986年,并行分布式处理(Rumelhart&McClelland 1986)出现在印刷中。 通过神经网络的背传播(BackProjagation)算法,在Aima的第20章中涵盖了重生的连接。 象征主义者/连接主义竞争导致文学中的热闹辩论(例如,Smolensky 1988,Brigingjord 1991),一些AI工程师明确支持拒绝知识代表的方法和推理。 例如,Rodney Brooks是这样的工程师; 他撰写了众所周知的“没有代表的情报”(1991),而他上面提到的COG项目可以说是有预期的非逻辑家方法的化身。 然而,越来越多地建立复杂系统的业务发现,需要验证者和更多的神经科学技术(Wermer和Sun 2001)。[33] 此外,目前,神经关键组织范式仅包括作为一个适当的部分的连接,鉴于建立基于神经网络的基于神经网络的基于脑的计算来实现智能系统的一些工作(例如,Granger 2004a,2004b)。

机器学习中发生了最近近期的神经计算机技术的复苏。 机器学习中的Modus Operandi是给出了一个问题,例如,识别手写的数字{0,1,...,9}或面,表示数字或面部的图像,机器学习或域专家将构建一个特征向量表示功能对于任务。 此功能是输入的转换为尝试丢弃输入中的无关信息并保持对任务的信息。 由R转换的输入被称为特征。 为了识别面,无关信息可能是场景中的照明量,相关信息可能是有关面部特征的信息。 然后,该机器馈送由这些输入表示的特征和理想或地面真理输出值的一系列输入。 这将从必须从示例中学习formuction f来转换学习挑战:{⟨x1,f(x1)⟩,⟨x2,f(x2)⟩,...,⟨xn,f(xn)⟩}必须从可能学习更轻松的数据:{⟨r(x1),f(x1)⟩,⟨r(x2),f(x2)⟩,...,⟨r(xn),f(xn)⟩}。 这里,功能R是计算输入的特征向量表示的功能。 正式地,假设F是功能G和R的组成。 也就是说,对于任何输入x,f(x)= g(r(x))。 这是由f =g∘r表示的。 对于任何输入,首先计算特征,然后应用功能G. 如果特征表示R由域专家提供,则在特征表示占该任务难度的范围内,学习问题变得更简单。 在一个极端时,特征向量可以隐藏在输入中的易于提取的答案形式,并且在另一个极端中,特征表示可能只是普通输入。

对于非琐碎的问题,选择正确的表示是至关重要的。 例如,AI景观中的一个激烈变化是由于Minsky和Papert(1969)的演示,即Perceptron也无法学习二进制XOR函数,但如果我们有正确的表示,可以通过Perceptron学习此功能。 特色工程已经发展成为机器学习最具劳动密集型的任务之一,因此被认为是机器学习的“黑色艺术”之一。 其他重要的学习方法艺术是选择正确的参数。 这些黑色艺术需要大量的人类专业知识和经验,在没有重大学徒(Domingos 2012)的情况下,这可能很难获得。 另一个更大的问题是,特征工程的任务只是一种新皮肤的知识表示。

鉴于这种状况,最近有一个自动学习特征表示功能R的方法的复兴; 这些方法可能绕过传统所需的大部分人劳动力。 这些方法主要基于现在所谓的深神经网络。 这些网络只是具有两个或更多个隐藏层的神经网络。 这些网络允许我们通过使用一个或多个隐藏的层来学习一个或多个来学习r。 一般的学习形式,其中一个人从未经基于手工的特征工程没有多大手术的特征工程学习的一般性感官数据中有自己的术语:深度学习。 一般和简明的定义(Bengio等,2015)是:

深入学习可以安全地被视为对模型的研究,以涉及比传统机器学习的更大的学习职能或学习概念的概念。 (Bengio等,2015年,第1章)

虽然这个想法已经存在了几十年,但最近的创新导致更高效的学习技术使得这种方法更加可行(Bengio等,2013)。 最近在图像识别中产生了深度学习方法(给定包含各种对象的图像,从给定的标签集标记对象),语音识别(来自音频输入,生成文本表示),以及来自粒子加速器的数据(Lecun等等。2015年)。 尽管令人印象深刻的任务,但是,次要和重大问题仍未得到解决。 一个小问题是,仍然需要大量的人类专业知识来选择架构并为架构设置正确的参数; 一个主要问题是存在所谓的对抗性输入,其与人类的正常输入无法区分,而是以特殊的方式计算,使得神经网络对其具有与训练数据中的类似输入不同。 这种对抗性投入在训练数据中保持稳定的这种反对派投入提高了关于基准性能如何转化为具有感官噪声的现实系统性能的疑虑(Szegedy等,2014)。

4.3概率技术的复苏

AI的爆炸性增长存在第二个维度:普及概率方法的普及爆炸性,以便在不确定的情况下正式化和机械化一种非逻辑家推理。 有趣的是,它是尤金查尼亚克本人,他可以安全地认为,明确的预先扭转的主要支持者之一,从逻辑到统计技巧。 他的专业领域是自然语言处理,而1985年的介绍性教科书给出了他当时解析的准确意识(正如我们所看到的那样,写入计算机程序,给定英语文本作为输入,最终推断出在fol)中,这种方法是被遗弃支持纯粹的统计方法(Charniak 1993)。 在AI @ 50大会上,Charniak大胆地宣布,在谈话中讲述了“为什么自然语言处理现在是统计自然语言处理”,逻辑学家AI是奄奄一息的,并且统计方法是城镇中唯一有希望的比赛 - 在未来50年。[34]

由Charniak的概率取向之间的冲突和原始逻辑师定位,在约翰麦卡锡和其他人提出的会议上追求的会议的能源和辩论的主要来源。

AI利用概率理论的使用从这个理论的标准形式中增长,其直接出于技术哲学和逻辑。 这种形式对许多哲学家来说都是熟悉的,但让我们现在快速审查它,以便为有关于具有通电AI的新概率技术的阶段来设置一个坚定的舞台。

就像在概率的情况下,在概率理论中,我们关注所申请的声明陈述或主张,以其所申请的信念; 因此,我们可以说逻辑家和概率方法都是自然界的象征性。 两种方法也同意,在世界上陈述可以是真实的或假的。 在建筑师中,基于简单的逻辑方法需要代理商知道所有可能陈述的真实值。 这不是现实的,因为代理人可能在物理世界中的无知,非决定主义,或者在声明的含义中只是平凡的模糊性,这是一个提案P的真实价值。 更具体地,概率理论中的基本命题是一个随机变量,其可以被认为是世界上最初未知的世界的一个方面。 我们通常将随机变量的名称大写,虽然我们保留了p,q,r,...也是这样的名称。 例如,在特定的谋杀调查中,以巴罗罗先生犯下犯罪,随机变量有罪可能是关注的。 探测器可能对谋杀武器无论是特定的刀具都感兴趣,让我们假设 - 属于Barolo。 鉴于此,我们可能会说武器= true如果它,如果它没有,武器= false。 作为一个符号的便利性,我们可以分别编写武器和¬weapon和这两种情况; 我们可以使用“此类惯例”进行此类其他变量。

到目前为止,我们描述的那种变量是布尔,因为他们的域名只是{true,false}。 但我们可以概括并允许离散随机变量,其值来自任何可数域。 例如,PriCetchina可能是中国(特定,大概)在中国的价格的变量,其域名可能是{1,2,3,4,5},这里每个数字都是美元。 第三种变量是持续的; 其域名是真实的或其一些子集。

(本章完)

相关推荐