人工智能(三)

3.2基于逻辑的AI:一些外科点

基于经典演绎逻辑的推理是单调; 即,如果φάφ,则为所有ψ,φ∪{ψ}⊢φ。 致辞推理不是单调。 虽然您目前可能在推理的基础上,但您的房子仍然站在您的房子,如果在您在计算机上看到的计算机屏幕,那么庞大的龙卷风正在通过房子的位置,您将放弃这种信念。 添加新信息会导致之前的推断失败。 在已经成为AI主食的更简单的例子中,如果我告诉你那是一只鸟,你会推断出那个Tweety可以飞,但如果我告诉你,Tweety是企鹅,推理蒸发,也应该。 非单调(或不可行的)逻辑包括旨在捕获这些实例的基础机制的形式主义。 请参阅逻辑和人工智能的单独输入,其专注于非单调推理,并推理时间和变化。 它还提供了基于逻辑的初期的历史,明确了那些创立了传统的人的贡献(例如,John McCarthy和Pat Hayes;看到他们的精彩1969纸)。

基于逻辑的AI的形式主义和技巧已经达到了令人印象深刻的成熟度 - 如此之多,因此在各种学术和企业实验室中,这些形式主义和技术的实施可用于工程师,现实世界的软件。 强烈建议,有兴趣了解AI在这些领域的读者咨询(Mueller 2006)的读者(Mueller 2006),其中在一个体积中提供了非单调推理的整合覆盖范围(以形式,具体地,界定),以及在情况下推理的推理和改变和事件计算。 (前模沟也由Thomason引入。在第二个中,除了其他事情之外,还包括时间点。)其他漂亮的事情(Mueller 2006)是,所使用的逻辑是多排序的一阶逻辑(MSL),其具有良好的功率将通过许多技术哲学家和逻辑学家(Manzano 1996)所知并赞赏。

我们现在转向AI的三个进一步的重要主题。 他们是:

在尝试建立智能人工代理的背景下逻辑学家AI的总体方案。

常见的逻辑和加强互操作性的追求。

一种可以称为编码的技术,这可以允许机器有效地知道,它没有被编码,当被推出时会导致瘫痪的低效率。

这个三重奏是按顺序覆盖的,从第一个开始。

逻辑学家的详细说明,该逻辑AI下属于基于代理的计划,可以在(Lenat 1983,Lenat&Guha 1990,Nilsson 1991,Brignor和Ferrucci 1998)中找到。[26]。 核心思想是,在一些逻辑系统(例如,一阶逻辑)和infers的基础上,智能代理以公式的形式接收来自外部世界的感知,以及其知识库,应该执行哪些行动以确保代理商目标。 (这当然是一个野蛮的简化。来自外部世界的信息在公式中编码,并且换能器实现此专长可能是代理的组件。)

要澄清一下,我们将简要地考虑与任意逻辑系统Lx有关的逻辑学家视图。[27] 我们通过以适当的方式设置x来获得特定的逻辑系统。 一些示例:如果x = i,那么我们在模型理论的标准符号之后,我们有一个系统的系统水平; 见e.g. (Ebbinghaus等,1984)]。 LII是二阶逻辑,LωiΩ是无限逻辑的“小型系统”(可选地是无限的连词,允许剖钉)。 这些逻辑系统都是扩展的,但也存在密集的系统。 例如,我们可以具有与标准命题模态逻辑(Chellas 1980)中看到的那些相对应的逻辑系统。 许多哲学家熟悉的一种可能性,将是命题KT45或LKT45。[28] 在每种情况下,有问题的系统包括一种相关的字母表,由此形成良好的公式,其通过正式的语法,推理(或证据)理论,形式语义,以及至少一些元理论结果(健全,完整性等)构成。 从标准符号中取出,我们可以说,在一些特定逻辑系统LX,φLX中可以与一些推理理论一起使用一组公式,以推断一些特定的公式φLX。 (推理可能是演绎的,归纳,绑架等。逻辑学家AI不受任何特定的推理方式。)说,我们写的情况

φlx⊢lxφlx

当逻辑系统从上下文中清除时,或者当我们不关心涉及哪个逻辑系统时,我们可以简单地写作

φ⊢φ

每个逻辑系统在其正式的语义中,将包括旨在表示该系统中公式指向的世界的对象。 让这些方式由w表示

一世

lx

。 当我们不关心涉及的逻辑系统时,我们可以简单地写Wi。 说这样的方式模型我们写的公式φ

wi⊨φ

我们以自然方式扩展到一组公式:wi⊨φ意味着Wi上的φ的所有元素都是真的。 现在,使用我们所建立的简单机器,我们可以在广泛的中风中描述符合逻辑观点的智能代理的寿命。 这一生符合Aima Sense中巩固智能代理的基本循环。

首先,我们假设人类设计师在学习世界后,使用特定逻辑系统的语言给我们的代理给予我们的代理,这是一个关于这个世界的初始信仰Δ0。 在这样做时,设计师与这个世界的正式模型,W,并确保w⊨δ0。 以下传统,我们将Δ0称为代理(启动)知识库。 (本术语,鉴于我们正在谈论代理人的信念,被称为特殊的,但它仍然存在。)接下来,该代理调整其知识基础以产生新的施法Δ1。 我们说调整是通过操作A的方式进行的; 所以[Δ0] =Δ1。 调整过程如何,a,工作? 有很多可能性。 不幸的是,许多人认为,最简单的可能性(viz,A [ΔI]等于可以以ΔI的某些基本方式推导的所有公式的集合耗尽所有可能性。 现实是,如上所述,调整可以通过任何推理方式来源 - 归纳,绑架和是的,各种形式的扣除与逻辑系统相对应。 出于目前的目的,我们仔细枚举所有选项并不重要。

当代理人作用于环境时,循环继续,以试图确保其目标。 当然,表演可能会导致环境变化。 此时,代理感测环境,并且该新信息γ1对调整过程中的因素,使得[δ1∪γ1] =Δ2。 The cycle of SENSES⇒ADJUSTS⇒ACTS continues to produce the lifeΔ0,Δ1,Δ2,Δ3,…,…of our agent.

它可能会令人遗憾地将逻辑学家AI吹捧为以复制所有认知的方法被吹捧。 在一些逻辑系统中推理公式可能是适当的,用于计算捕获高级任务,如试图解决数学问题(或设计哲学斯坦福百科全书中的条目),但这种推理如何适用于像鹰派在猛扑下捕捉到捕获的猎物时这样的任务? 在人类领域,运动员成功谈判的任务似乎在同一类别中。 当然,有些人会宣布,追逐一个苍蝇球的外消菲德并不能证明定理来弄清楚如何拉出潜水抓住去拯救游戏! 可以支持两个残酷的减少论点,以支持这种“逻辑学家的一切”对认知方法。 第一个源于只需一阶逻辑的完整证明微积分可以模拟所有图灵级计算(第11章,Boolos等人。2007)。 第二个理由来自数学和数学推理的基础理论中的角色逻辑扮演。 不仅是逻辑(波特2004)的数学理论(Potter 2004),而且成功的项目导致普通非琐碎定理的机器验证,例如,在MIZAR项目中,已经验证了大约50,000定理(Naumowicz和Kornilowicz 2009)。 该论点是,如果可以在数学上投射任何对AI的方法,那么它可以以逻辑表形式投射。

毋庸置疑,逻辑家超出了上述减少论证的逻辑家仔细考虑了这样的声明。 例如,Rosenschein和Kaelbling(1986)描述了一种用于指定有限状态机的逻辑的方法。 这些机器用于快速,无功加工的“运行时”。 在这种方法中,尽管有限状态机在传统意义上不包含逻辑,但它们是通过逻辑和推理产生的。 Amir和Maynard-Reid(1999,2000,2001)证明了通过一阶定理证明的真实机器人控制。 事实上,您可以下载在办公环境中为Nomad 200移动机器人提供真实的软件版本2.0版。 当然,谈判办公室环境是从快速调整的一个远远哭泣,这是洋基队的一个外消费者经常展示展示,但肯定是未来机器是否能够通过快速推理模仿这种壮举的开放问题。 如果否则否则,问题是开放的,而不是一切都必须承认一定是一阶定理普通的推理速度的不断增加是令人叹为观止的。 (关于此增加的最新消息,访问和监控TPTP网站。)没有所讨论的软件工程无法继续产生最终允许人工生物通过以纯粹的逻辑师时尚的信息捕获苍蝇球的速度增益。

现在我们来到与逻辑学家AI相关的第二个主题,该主题是根据本文认证的逻辑学家AI相关:使用不同逻辑的基于逻辑系统之间的互操作性的常见逻辑和加强追求。 只提供一些简短的评论。[29] 读者想要更多可以探索摘要过程中提供的链接。

一个标准化是通过所谓的常见逻辑(CL)和变体。 (CL被公布为ISO标准 - ISO是国际标准组织。)对逻辑感兴趣的哲学家,当然是逻辑学家,会发现CL要相当迷人。 从历史的角度来看,Cl的出现在没有小部分中,因为刺激的人是帕特海德,同样的海耶斯,正如我们所看到的那样,在20世纪60年代建立了麦卡锡的逻辑学家AI。 虽然海耶斯不是在1956年的1956年达特茅斯会议上,但他当然必须被视为当代AI的创始人之一。)关于CL的一个有趣的事情,至少在我们看到它,它是它表示逻辑婚姻的趋势,编程语言和环境。 另一个是逻辑/编程混合动力车的系统是雅典娜,可以用作编程语言,同时是MSL的形式。 雅典娜基于称为指定特殊语言的正式系统(ARKoudas 2000)。

如何由CL启用的两个系统之间的互操作性? 假设其中一个系统基于逻辑L,另一个系统在L'上。 (为了缓解展示,假设这两个逻辑都是一流的。)想法是理论φL,即L中的一组公式,可以转换为CL,产生φCL,然后该理论可以转换为φ

'

l

。 因此,CL成为一个跨国语。 请注意,作为L良好形成的公式的计数可以与L'中的一个良好的计数不同。 这两个逻辑也可能具有不同的证明理论。 例如,L中的推断可能是基于分辨率的,而L'的推论是自然扣除品种。 最后,符号集将是不同的。 尽管存在这些差异,所以由翻译提供,可以在翻译中产生所需的行为。 这样,无论如何,是希望。 这里的技术挑战是巨大的,但联邦款项越来越多地用于攻击互操作性问题。

现在在本节中为第三主题:可以调用哪些编码。 该技术易于理解。 假设我们在手上一组一阶公理的φ。 如众所周知,对于任意公式φ来说,决定它是否从φ中推动的问题是TING-UNSICIVES:没有图定机器或等同物可以在一般情况下正确返回“是”或“否”。 但是,如果有问题的域是有限的,我们可以将此问题编码为命题微积分。 一个断言,所有事情都有f当然相当于fa,fb,fc的断言,只要域只包含这三个对象即可。 因此,这里的一阶量化公式成为命题微积分中的结合。 确定是否从命题微积分中表达的公理中可以从本身所表达的脱节是可以进行解辨别的,并且在某些情况下,在命题情况下可以快速完成检查; 很快。 有兴趣编码到命题微积分的读者应由Bart Selman咨询最近的Darpa赞助工作。 请注意,编码下调的目标不需要成为命题微积分。 由于机器通常更难找到密集逻辑的证据而不是直顺序逻辑,因此通常有利地将前者编码到后者。 例如,命题模态逻辑可以以多排序逻辑(FOL的变体)编码; 查看(Arkoudas&Bringsjord 2005)。 可以在一组称为描述逻辑的系统中找到这样的编码的突出使用,这是一组逻辑的逻辑,而不是比命题逻辑更具表现力,而不是命题逻辑(Baader等,2003)。 描述逻辑用于在给定域中的有关本体的推理,并且已成功地在生物医学域中使用(Smith等,2007)。

3.3非逻辑员AI:摘要

通过否定定义非逻辑学家AI很诱人:建立拒绝逻辑师AI的显着特征的智能代理的方法。 这种快捷方式意味着由非逻辑学家AI研究人员和开发人员设计的代理商,无论这些代理商的优点如何,都无法说φ; - 为了简单的原因,通过否定,非逻辑学家范式将甚至没有单一的声明性命题,这是φ的候选者; 然而,这不是定义非符号AI的特别启发方式。 一种更高效的方法是说非符号AI是基于除逻辑系统以外的特定形式主义的AI,然后枚举这些形式主义。 当然,它将结束这些形式主义未能在正常意义上包含知识。 (在哲学中,如众所周知,正常意义是根据p是众所周知的,p是声明性声明。)

从逻辑系统以外的形式主义的角度来看,非逻辑学家AI可以分成象征性但非逻辑员方法以及连接主义/神经科学方法。 (AI在符号,声明结构的基础上进行,即用于可读性和易用性,未经研究人员作为正式逻辑的要素直接对待,不计数。在此类别秋季传统的语义网络,Schank的(1972)概念依赖计划,框架 - 基于方案和其他这样的方案。)前一种方法,今天是概率,并基于下面涉及的形式主义(贝叶斯网络)。 后一种方法是基于,正如我们所指出的,就可以广泛地称为“神经计算机”的形式主义 鉴于我们的空间限制,这里只描述了该类别中的一个形式主义(并且简要地在那样):上述人工神经网络。[30]。 虽然具有适当架构的人工神经网络可以用于任意计算,但它们几乎完全用于构建学习系统。

神经网络由旨在代表神经元的单位或节点组成,所述神经元由设计用于代表树枝状体的链路连接,每个链路具有数字重量。

传递给生成输出的激活功能的加权输入之和

人工神经网络内的“神经元”(来自Aima3e)

通常假设一些单位与外部环境合作共生; 这些单元形成输入和输出单元集。 每个单元具有当前的激活级别,即其输出,并且可以根据其输入和权重计算在那些输入的输入和权重,其在下一刻在其次及时的激活级别。 此计算完全是本地:一个单位考虑到网络中的邻居。 此本地计算以两个阶段计算。 首先,输入函数INI,给出单位的输入值的加权和,即输入激活的总和乘以其权重:

ini文件=

σ

j

wjiaj

在第二阶段,激活函数G将输入从第一阶段作为参数中的输入带来,并生成输出,或激活级别AI:

人工智能= g(ini文件)= g(

σ

j

wjiaj)

激活函数的一个常见(和忏悔的基本)选择(通常管理给定网络中的所有单元)是步进功能,其通常具有在输入大于t时看到的阈值T,并且否则输出0。 这应该是“脑状”到某种程度上,给出了1表示从神经元通过轴突的脉冲的射击,并且0表示没有烧制。 简单的三层神经网络如下图所示。

带3层的神经网络

一个简单的三层人工神经网络(来自Aima3e)

正如您想象的那样,有许多不同的神经网络。 主要区别是前馈和经常性网络之间。 在像上面图片的前馈网络中,随着他们的名字表明,链接在一个方向上移动信息,没有周期; 经常性网络允许循环回来,并且可以变得相当复杂。 有关更详细的演示文稿,请参阅

神经网补充。

神经网络从根本上困扰着它们简单并且具有理论上有效的学习算法,当它们是多层的并且因此充分表达以代表非线性功能时,它们非常难以在实践中训练。 这在2000年代中期发生了变化,以利用最先进的硬件更好的方法出现(Rajat等,2009)。 用于训练多层神经网络的BackPropagation方法可以转换为大量数字的重复简单的算术运算序列。 计算硬件的一般趋势已经有利于能够做大量不依赖于彼此的简单操作的算法,而不是少量复杂和错综复杂的操作。

最近的另一个关键观察是,深度神经网络可以在无监督的阶段预先培训,在那里它们只是没有任何标签的数据。 每个隐藏层被强制表示下层的图层的输出。 该培训的结果是一系列层,其代表输入域,提高抽象水平。 例如,如果我们用面部的图像预先训练网络,我们将获得第一层擅长检测图像的边缘,第二层可以组合边缘以形成诸如眼睛,鼻内等的面部特征,响应特征组的第三层(Lecun等人。2015)。

也许在其他统计学习形式主义和方法的背景下教学学生关于神经网络的最佳技术是关注特定问题,最好是使用逻辑学技术似乎不自然的。 然后,任务是寻求将解决问题的解决方案,使用任何和所有技术可用。 一个好问题是手写识别(也发生了丰富的哲学维度;见e.g.HofStadter&McGraw 1995)。 例如,考虑分配的问题,给出了作为输入手写的数字D,正确的数字,0到9.因为研究人员有60,000个标记数字的数据库(来自国家科学技术研究所),这个问题已经发展成为一个基准问题比较学习算法。 事实证明,神经网络目前统治是根据近期Benennon(2016年)的最新问题的最佳方法。

鼓励对艾迪(和计算认知科学)感兴趣的读者,探讨Rick Granger(2004A,2004B)和大脑工程实验室和W.H. Neukom学院的研究人员的工作科学。 “干”,逻辑学家AI之间的对比度在原始的1956年会议上开始,并通过格兰杰和联系人(直接建模的脑电路)采取的方法是显着的。 对于那些对神经网络的计算属性感兴趣的人,Hornik等人。 (1989年)解决神经网络独立于学习的一般代表性能力。

(本章完)

相关推荐