人工智能(五)
我们说原子事件是从适当的域的特定值的分配给构成(理想化)世界的所有变量。 例如,在简单的谋杀调查世界刚刚刚刚上面,我们有两个布尔变量,有罪和武器,只有四个原子事件。 请注意,原子事件具有一些明显的属性。 例如,它们是互斥的,详尽的,并且逻辑上都需要每个命题的真相或虚假。 通常不明显,开始学生是第四个财产,即任何命题都在逻辑上相当于所有导致该命题的原子事件的分离。
在完全没有任何其他信息的情况下,概率对应于符合主题的信仰程度。 例如,如果Barolo的内疚概率为0.2,我们写
p(有罪=真正)= 0.2
或简单的p(内疚)= 0.2。 具有允许一个人在经济上以随机变量的所有可能值的概率将经济地提及的符号是方便的。 例如,我们可以写
p(pricetchina)
作为五个方程的缩写,列出了中国茶的所有可能的价格。 我们也可以写
p(pricetchina)=⟨1,2,3,4,5⟩
另外,作为进一步方便的符号,我们可以写出p(罪恶,武器)来表示相关随机变量的所有值组合的概率。 这被称为有罪和武器的联合概率分布。 完整的联合概率分布涵盖了用于描述世界的所有随机变量的分布。 鉴于我们简单的谋杀世界,我们在等式中有20个原子事件
p(有罪,武器,pricetchina)
概率论的最终语言的基本语言对应于条件概率。 其中p和q是任何命题,相关表达式是p(p q),它可以被解释为“p的概率,因为我们所知道的是q。” 例如,
p(有罪|武器)= 0.7
说,如果谋杀武器属于Barolo,并且没有其他信息,Barolo有罪的可能性是0.7。
Andrei Kolmogorov展示了如何从现在推出的机械,Viz建造概率理论
所有概率均落在0和1之间。即,∀p.0≤p(p)≤1。
有效(在传统的逻辑学家中)命题具有1的概率; 不可挑离的(在传统的逻辑学家中)命题的命题概率为0。
p(p∨q)= p(p)+ p(q)差分方程(p∧q)
这些公理显然是在底部逻辑家处。 概率理论的其余部分可以从该基础中竖立(条件概率在先前概率方面很容易定义)。 因此,我们可以说逻辑是一些基本意义,仍然被用来表征理性代理人可以拥有的信念。 但是概率推理在哪里进入此帐户的图片,因为传统扣除不用于概率理论的推论?
概率推断包括计算,从观察到的证据表达概率理论,兴趣引起的后验概率。 有很多长的时间,已经有用于执行此类计算的算法。 这些算法在20世纪90年代的概率技术的复苏之前。 (Aima的第13章呈现了许多人。)例如,考虑到Kolmogorov公理,这里是使用完整的联合分布给予所有原子事件的概率的任何命题的概率的直接方式:其中P是一些命题,让α(p)是P容量的所有原子事件的分离。 由于提出的概率(即,p(p))等于它所保持的原子事件的概率之和,因此我们具有提供用于计算任何命题P,Viz的概率的方法
p(p)=
σ
ei∈α(p)
p(ei)
不幸的是,有两个严重的问题感染了这种原始概率方法:一个,所以有问题的处理需要在瘫痪的大量信息上进行(需要在整个分布上的枚举)。 而且,这种方法的表现只是命题。 (这就是哲学家希尔德南(1963)指出的方式指出,据指出,在迁至一阶级的情况下有一个代价。此处没有讨论该问题。)一切都随着标志着概率婚姻的新形式主义而变化图表理论:贝叶斯网络(也称为信仰网)。 关键文本是(珍珠1988)。 有关更详细的讨论,请参阅
贝叶斯网络补充。
在结束本节之前,可能值得注意的是,从哲学的角度来看,我们将谋杀调查的情况通常会被分析到论证,而且强势因素,而不是通过纯粹的算术程序来嘎吱作响的数字。 例如,在Roderick Chisholm的认识学中,如他的知识理论(1966年,1977年)所示,侦探福尔摩斯可能会分类一个命题,如Barolo犯下谋杀案。 如果他无法找到任何令人信服的论点,或者如果谋杀武器所归功于Barolo,那么令人沮丧的论据。 这些类别不能在连续内找到0到1,它们用于阐明或反对Barolo的内疚感。 基于参数的不确定和不可行推理的方法几乎不存在于AI中。 一个例外是Pollock的方法,如下所示。 这种方法是Chisholmian本质上。
还应该注意的是,作为基于逻辑的推理的一个例子,已经有很好的形式主义来处理概率原理。 例如,概率推理的研究人员在证明其域的定理φ时,概率推理(例如,(珍珠1988)中的任何定理)纯粹在传统逻辑的领域内。 读者对概率推理的逻辑调味方法可以咨询(Adams 1996,Hailperin 1996和2010,Halpern 1998)。 形式主义结婚概率理论,归纳和演绎推理,将它们放在平等的基础上,一直在上升,马尔可夫逻辑(Richardson和Domingos 2006)在这些方法中突出。
概率机器学习
机器学习,在上面给出的意义上,已经与概率技术相关。 概率技术已经与功能的学习(例如天真贝叶斯分类)和学习算法的理论特性建模有关。 例如,监督学习的标准重构将其投放为贝叶斯问题。 假设我们正在研究从给定图像识别数字[0-9]。 施放这个问题的一种方法是询问假设HX:“数字是X”的概率给出了来自传感器的图像D的真实情况。 贝叶斯定理给我们:
p(hx | d)=
p(d | hx)* p(hx)
p(d)
可以从给定的训练数据集估计p(d`hx)和p(hx)。 然后给出具有最高后概率的假设作为答案,并且通过:除了用于构建算法的概率方法之外,argmaxxp(d | hx)* p(hx)还用于分析算法这可能没有明显的概率或逻辑配方。 例如,学习中的元定理中的一个中央类别之一,可能大致正确(PAC)定理,以诱导/学习的流动功能与真正函数ft之间的错配和鉴于某个数量不匹配的概率的低界限而施法学习的功能在一定数量的情况下运作良好(见第18章,Aima)。
5.在野外
从至少它的现代成立,AI一直与小工具相连,通常由公司生产的,并且我们将是我们不言而喻的一些关于这种现象的话。 虽然AI及其姐妹领域已经有大量商业内野外的成功故事,例如优化和决策,但有些应用程序更加明显,并在野外彻底进行战斗。 2014年,最可见的域名(AI引人注目的域名)是信息检索,作为Web搜索的信息。 另一个最近的成功故事是模式识别。 应用模式识别(例如,指纹/面部验证,语音识别和手写识别)的最先进,足以允许在实验室之外的“高赌注”部署。 截至2018年中期,若干公司和研究实验室已开始在公共道路上测试自治车辆,甚至是少数司法管辖区制作自驾车合法运作。 例如,谷歌的自治车在加利福尼亚州的数十万英里导行,在非琐碎的条件下,最小的人类帮助(Guizzo 2011)。
电脑游戏为AI技术提供一个强大的测试床,因为它们可以捕获可能需要测试AI技术的重要部分,同时抽象或删除可能超出核心AI研究范围的详细信息,例如,设计更好的硬件或处理法律问题(莱尔德和凡2001)。 对于AI的商业部署而言,一次看到的游戏的一个子类是实时战略游戏。 实时战略游戏是球员管理陆军资源的游戏。 一个目标是不断地战斗其他球员并减少对手的力量。 实时战略游戏与战略游戏不同,该玩家在实时计划的行动方案,不必轮流播放。 此类游戏具有许多挑战,这些挑战在掌握最先进的情况下阐明。 这使得此类游戏成为部署简单AI代理的有吸引力的场所。 可以在(Robertson和Watson 2015)中找到实时战略游戏中使用的AI概述。
尽管取得了巨大的成功,但AI中的一些其他企业,只是悄悄地谦卑地匆匆而谦卑地休息。 例如,AI相关的方法已经实现了胜利在解决数十年来抵制任何解决方案的数学中的开放问题。 这种问题的最值得注意的例子也许是“所有罗宾斯代数是布尔代数”的陈述证明 这是在20世纪30年代召集的,这证明终于在几个月的努力之后(Kolata 1996,WOS2013)之后的1996年的Otter自动定理箴言。 像正式验证一样的姐妹领域也绽放到现在不要太难以半自动验证重要的硬件/软件组件(Kaufmann等,2000和Chajed等,2017)。
其他相关领域,如(自然)语言翻译,仍有很长的路要走,但足以让我们在受限制条件下使用它们。 陪审团在机器翻译等任务中脱颖而出,这似乎需要统计方法(Lopez 2008)和符号方法(España-Bonet 2011)。 这两种方法现在都有可比但在野外的成功有限。 福特部署的翻译系统最初开发用于将制造过程指令从英语翻译成其他语言,最初开始作为具有福特和域特定的词汇和语言的基于规则的系统。 然后,该系统进化以结合统计技术以及基于规则的技术,因为它获得了超出了翻译手册的新用途,例如,在福特中的用户在福特中翻译自己的文档(Rycyckyj和Plesco 2012)。
Ai的巨大成就到目前为止,所有人都在有限,狭窄的域名。 这种在不受限制的总案件中缺乏成功导致一小组研究人员突破现在被称为人为总部智力(Goertzel和Pennachin 2007)。 该运动的规定的目标包括再次将焦点转移到构建通常智能的工件,而不仅能够在一个窄域中的构建。
6.道德艾
计算机道德已经存在了很长时间。 在这个子领域,通常人们会考虑如何在涉及计算机技术的某类情况下应该采取行动,其中“一个”是指人类(1985架)的人。 所谓的“机器人伦理”是不同的。 在这个子领域(由“道德AI”等名称,“道德AI,”“机器伦理”,“道德机器人”等)一个人面临着这种前景,因为机器人能够做出自主和重量决定 - 决定可能或可能不会在道德上允许(Wallach&Allen 2010)。 如果要试图将机器人能够以复杂的道德推理和决策能力设计,那么也可以做哲学AI,因为该概念在当前条目的其他地方的特征。 可能有许多不同的旨在对道德AI的方法。 Wallach和Allen(2010)提供了不同方法的高级概述。 在具有致命行动能力的机器人中,道德推理显然需要。 Arkin(2009)介绍了我们如何控制和调节具有致命行为能力的机器的介绍。 道德ai超出了明显致命的情况,我们可以拥有一款频谱的道德机器。 Moor(2006)提供了一种可能的道德药物的一种。 非致命但道德充电的机器的一个例子将是躺线机。 Clark(2010)使用思想的计算理论,能够代表和对其他代理商的理由,建立一个成功地说服人们相信虚假的撒谎机器。 Bello&Bringsjord(2013)一般概述构建道德机器所需的内容,其中一种成分是一种思想理论。
建筑机器的最普遍框架,可以推理道德地包括赋予机器具有道德规范。 这要求机器推理的正式框架表现得足以接收此类代码。 现在,道德AI领域并不关心这些代码的来源或出处。 源可以是人类,机器可以直接接收代码(通过显式编码)或间接地(读取)。 另一种可能性是,机器从更基本的法律集推断代码。 我们假设机器人可以访问一些这样的代码,然后我们试图在所有情况下都尝试遵循该代码,同时确保道德代码及其表示不会导致意外后果。 由于此目的,文学逻辑是一类正式的逻辑,以此目的是最多的。 抽象地,这种逻辑主要关注给定的道德规范的跟随。 然后,工程研究给定的语言逻辑与道德代码(即,逻辑表现力足够的逻辑表达)的匹配,这必须与自动化的易于平衡。 brignesjord等。 (2006)提供使用文字逻辑的蓝图构建可以根据道德代码执行行动的系统。 Bringsjord等人(可以被视为代表道来逻辑的道义逻辑领域)的框架中的角色逻辑发挥的作用可以最好地理解为努力争取莱布尼兹的梦想普遍道德微积分:
当出现争议时,两个哲学家之间的争议将不再需要,而两个会计师会在两个会计师之间进行争议。 这对他们来说是足够的,拿起他们的腿,坐在他们的拙劣身上,并互相说(也许召唤共同朋友):'让我们计算。'
基于语法的框架也可以以类似于道德自我反思的方式使用。 在此模式下,机器人内部模块的基于逻辑的验证可以在机器人投入到现实世界之前完成。 Govindarajulu和Bringsjord(2015)提出了一种方法,从正式计划验证中绘制,其中基于逻辑基于逻辑的系统可用于验证机器人在某些条件下以某种道德制动的方式起作用。 由于正式验证方法可用于断言关于无限数量的情况和条件的陈述,因此这些方法可能是在道德上充电的测试环境中的机器人漫游,并制作有限的决定,然后判断出伦理正确性。 最近,Govindarajulu和Bringsjord(2017)使用文学逻辑来提出双重效果学说的计算模型,道德困境的道德原则,已经经验研究并广泛分析哲学家。[35] 通常通过使用手推车通过困境呈现和激励原理,并首先依靠这种方式呈现(1967)。
虽然有很大的理论和哲学工作,但机器道德领域仍处于初期阶段。 建立道德机器的一些胚胎工作。 最近的一个这样的例子将是Pereira和SAPTAWIJAYA(2016年),他使用逻辑编程和基于机器伦理的工作,以应被称为合同主义的道德理论,由Scanlon(1982)列出。 关于未来呢? 由于人工代理必然会变得更聪明,更聪明,并且具有越来越多的自主权和责任,机器人伦理几乎肯定会变得重要性。 这一努力可能不是古典伦理的直接应用。 例如,实验结果表明,人类将机器人保持不同的道德标准,而不是在类似条件下对人类的期望(Malle等人2015)。[36]
7.哲学AI
请注意,本节的标题并不是AI的哲学。 我们会暂时到达这一类。 (现在,可以通过试图回答这些问题,因为在AI中创建的人为代理人是否可以达到人类智能的全部高度。)哲学AI是AI,而不是哲学; 但它是oi植根于哲学。 例如,一个可以使用哲学的工具和技术,悖论,解决一个提出的解决方案,然后进入哲学家肯定可选的步骤:以可以转换为计算机程序的术语表达解决方案,允许人工代理到超越原始悖论的具体实例。[37] 在我们对某种特定研究计划提供的这种分类的哲学AI的哲学AI之前,请首先让我们考虑AI实际上是简单的哲学,或其一部分。
Daniel Dennett(1979年)不仅有人宣称,AI紧密束缚有哲学的一部分,但AI是哲学(和心理学,至少是认知排序)。 (他已经对人工生命的并行主张(Dennett 1998))。 这个观点将结果不正确,但原因是错误的原因将证明照明,我们的讨论将为哲学AI讨论铺平道路。
Dennett究竟说了什么? 这一:
我想声称AI更好地被视为与传统认识学的分享,成为最普遍的状态,最摘要询问自上而下的问题:如何识别可能? (Dennett 1979,60)
在其他地方,他说他的观点是应该被视为“作为智力或知识可能性的最摘要调查”(Dennett 1979,64)。
简而言之,Dennett认为AI是试图解释智力,而不是通过研究大脑希望识别可以减少认知的组件,而不是由工程小型信息处理单元,其中一个人可以以自下而上的方式建立在高级认知过程中,但是相反,这就是为什么他说该方法是自上而下的 - 设计和实施捕获认知的抽象算法。 离开这一事实,即至少在20世纪80年代初开始,ai包括一种在某种程义上自下而上的方法(参见上面讨论的神经科学范式,在非逻辑学家ai:摘要;看,特别是granger(2004a,2004B)工作,在上面的文本中的工作,一个特定的反例),致命的缺陷感染了Dennett的观点。 Dennett认为潜在的缺陷,反映在:
这似乎似乎是一些哲学家,AI不能乖乖地解释,因为它需要额外的负担:它限制了自己的机制解决方案,因此它的域名不是所有可能的智力模式模式的康妮领域,而只是机械地可实现的智慧模式。 这是索赔,将提出反对活力学,双人和其他反机制的问题。 (Dennett 1979,61)
丹尼特对这种反对意见有一种准备的答案。 他写道:
但是...... AI的机制要求不是任何时刻的额外约束,因为如果可能的心理学,如果教会的论文是真的,那么机制的约束就没有比乞讨心理学问题的限制,谁希望逃避这一点 (Dennett 1979,61)
不幸的是,这令人痛苦的问题; 并对问题的审查引发了AI的性质。
首先,作为哲学和心理学的谨慎涉及心灵的本质,他们的预先染色于决策在计算中的预先存在。 AI,至少是“强”品种(我们将讨论强烈的“与”弱“ai下面)确实是通过工程一定令人印象深刻的工件来证实,智能在底部计算的论点(在图灵机和他们的等同物的水平上,例如,登记机)。 因此,有一种哲学索赔,肯定。 但这并没有成为AI哲学,不仅仅是一些物理学家的更深层次,更积极的声称(例如,宇宙最终是数字化的)使其领域的哲学。 物理学哲学肯定娱乐物理宇宙可以在数字术语中完全建模的命题(在一系列蜂窝自动机中,例如,例如,物理哲学无法用这种学说识别。