人工智能(一)

1. AI的历史

2. AI究竟是什么?

3.对AI的方法

3.1智能代理连续体

3.2基于逻辑的AI:一些外科点

3.3非逻辑员AI:摘要

3.4超出范式冲突的AI

4. AI的爆炸性生长

4.1机器学习绽放

4.2神经计算机技术的重新训练

4.3概率技术的复苏

5.在野外

6.道德艾

7.哲学AI

8.人工智能哲学

8.1“强”与“弱”ai

8.2中国房间对“强壮AI”的争论

8.3对“强壮AI”的意见辩论

8.4 AI哲学的其他主题和读数

9.未来

参考书目

学术工具

其他互联网资源

在线课程AI

相关条目

1. AI的历史

人工智能(AI)领域于1956年正式启动,由达特茅斯学院举行的小但现着名的Darpa-Suponseration夏季会议,在新罕布什尔州汉诺威汉诺威。 (这次会议的50年庆祝活动,AI @ 50,于2006年7月在达特茅斯举行,其中五名原始参与者将其归还。[2]在本入口的最后一部分的这个历史性会议人物中发生了什么。)十个思想家参加过,包括约翰McCarthy(世卫组织在1956年在Dartmouth工作),Claude Shannon,Marvin Minsky,Arthur Samuel,Trenchard Moore(显然是原始会议上的孤独的音符),Ray Solomonoff,Oliver Selfridge,Allen Newell和Herbert Simon。 从我们现在站立的地方,进入新千年的开始,达特茅斯会议因许多原因而令人难忘,包括这对:一个,术语“人工智能”在那里创造出来(并且长期以来一直坚持不懈,尽管有一些人不喜欢与会者,例如摩尔); 二,纽尔和西蒙透露了一个节目 - 逻辑理论家(LT) - 与会者同意(事实上,几乎所有那些在会议后很快了解的人)是一个显着的成就。 能够在命题微积分中证明基本定理。[3] [4]

虽然“人工智能”一词在1956年会议上发布了会议,但肯定是AI的领域,可操作地定义(定义,即,作为以某种方式思考和行动的从业者构成的领域),在1956年之前运作。例如,在A中1950年的着名思维论文,Alan Tying辩称,问题“机器可以思考?” (这里的图灵正在谈论标准计算机:能够从自然数(或对,其三穴)到图灵机或等同物可以处理的自然数量(其对,三穴,其)计算功能的机器)应该用问题所取代“机器可以是语言的与人类无法区分?” 具体而言,他提出了一个测试,“图灵测试”(TT)现在已知。 在TT中,一个女人和计算机被隔绝在密封室,一个人类法官,在黑暗中,在黑暗中,两个房间中包含哪个参赛者,通过电子邮件(实际上,通过电传键,使用原始术语)来询问问题。 如果在退回答案的实力上,法官可以在提供判决的情况下,除了哪个房间的房屋,我们说,如果有问题的房屋,我们说的是问题已经过去了。 在这个意义上通过了语言无法区分。 后来,我们将讨论TT发挥的角色,并且确实继续发挥作用,以便定义AI。 然而,目前,这一点是,在他的论文中,明确地说明了建筑机器的呼吁,这些机器将为他的问题提供肯定答案的存在证明。 呼叫甚至包括这种建筑如何进行的建议。 (他建议建造“儿童机”,然后这些机器可以自行逐渐长大,以学会以成人人类水平的自然语言沟通。这个建议可以说是罗德尼布鲁克斯和哲学家Daniel Dennett(1994)在COG项目中。此外,Spielberg / Kubrick电影A.I.至少部分地是对图灵的建议的电影探索。[5])TT继续成为AI的核心和对其基础的讨论,正如(Moor 2003)的外观所确认的那样。 事实上,TT继续用于定义该领域,如在Nilsson(1998)的位置,在他的TextBook中表达了这个字段,即AI只是致力于构建能够协商此测试的工件的字段。 由工程梦想提供的能量,可以通过TT的计算机,或者通过涉嫌已经过去的争议,它已经过去,如果是以往任何时候的任何更强,而读者只能通过串进行互联网搜索

图灵测试通过了

找到达到这个梦想的最新尝试,并尝试(有时由哲学家制造)到揭穿声称,一些这种尝试成功了。

退回历史记录的问题,即使一个人声称AI通过增加“人工智能”是指“人工智能”是指坚果和螺栓工程追求(在这种情况下进行哲学讨论,尽管对儿童机呼叫,但与AI本身不完全计数),必须面对图灵,并确实是许多前辈的事实确实尝试建立智能文物。 在图灵的情况下,在可编程计算机的出现之前,这种建筑令人惊讶的是很好地理解:在有计算机之前,Tying在有计算机上运行此类程序之前编写了一个节目,通过奴役自己。 他在1950年之前做得很好,纽尔(1973年)在纽尔(1973年)之前渴望打印,以持续,严肃地试图建立一个良好的国际象棋电脑的可能性。[6]

从哲学的角度来看,从特定的逻辑家形式主义(例如,一阶逻辑)和问题(例如,entscheidungsprobly)分开的哲学的系统调查生下了计算机科学,既不是1956年的会议,也不是图灵的思想纸,靠近标记AI的开始。 这很容易看到。 例如,在图灵出生之前,Descartes提出了TT(当然不是名称的TT,当然)。[7] 这是相关段落:

如果有机器可以与我们的身体相似并模仿我们的行为,就在道德上可以这样做,我们应该始终有两个非常一定的测试来认识到这一切,因为这一切,他们不是真正的男人。 首先是,当我们在为他人的利益中的思想提供思想时,他们永远不会使用言语或其他迹象。 因为我们可以轻松理解机器的构成,以便它可以说出单词,甚至发出一些对其物体类型的行动的回应,这会带来其器官的变化; 例如,如果在特定部分中触摸它可能会询问我们希望对此的看法; 如果在另一个部分中,它可能会惊呼它受到伤害,等等。 但它从来没有发生过它以各种方式安排其演讲,以便适当地回复可能在其存在下可以说的一切,甚至于最低类型的人都可以做到。 第二个区别是,尽管机器可以比我们任何人都能表现出某些事情,但它们可以在其他人中脱落,这意味着我们可能发现他们没有从知识中行事,而是仅仅是为了他们的器官的性格。 虽然原因是一个可用于所有突发事件的通用仪器,这些器官需要一些特殊行动的特殊适应。 从这一点来看,在道德上不可能在任何机器中有足够的多样性,以便在我们的原因导致我们采取行动的情况下以相同的方式行事。 (笛卡尔1637,第116页)

目前,笛卡尔肯定携带一天。[8] 图灵预测,他的考验将在2000年通过,但新千年开始的全球烟花已经长期死亡,而且电脑的最铰接仍然无法有意义地争论锋利的蹒跚学步。 而且,在某些积极的地区机器出来的时候(IBM着名的深蓝色在象棋上占了10岁的加里卡斯帕罗夫,例如,最近,AI系统在其他游戏中占有盛普遍,例如,危险!和去,关于哪个稍微暂时说),思想有一个(笛卡尔)能力,以便在几乎任何球体上培养他们的专业知识。 (如果它被宣布为深蓝色,或任何当前的继任者,那么国际象棋不再是首选游戏,而是迄今为止象棋的未播放变种,这台机器将被人类平均智能的儿童抚摸,没有国际象棋专业知识。)AI简单没有设法创造一般情报; 它甚至没有设法制作一个神器,表明最终它会产生这样的事情。

但IBM Watson在危险中的着名的指甲击败胜利呢! 游戏节目比赛?[9]当危险以来,这肯定似乎是人类胜利人类胜利! 提供人级语言挑战在许多域中。 事实上,在许多AI Cognoscenti中,Watson的成功被认为是令人印象深刻的令人印象深刻,因为有很多原因。 其中一个原因是,当国际象棋通常被认为是从正式计算的视角(毕竟,众所周知,在开放域问题答案(QA)中存在完美的策略,就像任何重要的自然语言处理任务一样对于什么是什么问题,正式发言,一个是试图解决。 简而言之,问答(QA)是读者认为它是:一个人问一个机器问题,并获得答案,答案必须通过一些“重要的”计算过程来生产。 (参见Strzalkowski&Harabagiu(2006)概述了历史上的QA,一直是一个字段。)更准确地说,没有关于底层职能,正式说话,问答能力计算的依据。 这种缺乏协议自然而然地源于当然没有与自然语言一样正式发言的自然语。[10] 尽管有这种愚蠢,但面对几乎普遍的信念,即开放域问题回答将在十年或以上仍然取消解决,沃森果断地击败了两个顶级人类危险! 冠军在地球上。 在比赛期间,沃森不得不回答不仅要求令人遗憾的问题(题目1),而且还有一定数量的基本推理(以时间推理的形式)和型号(问题2):

问题1:唯一两个连续的美国总统,名字。

问题2:在5月1898年5月,葡萄牙庆祝了这个探险家抵达的400周年。

虽然Watson比危险的人更好地更好! - 风格测量(一个新的人类危险!师父可以到达现场,但对于国际象棋,AI现在假设第二轮IBM-Level Investment将征服新人对手),这种方法不适用于笛卡描述的NLP挑战; 也就是说,沃森无法暂停。 毕竟,一些问题没有遵守复杂的信息检索和机器在预先存在的数据上学习,而是在当场就正确推理。 这些问题可能例如涉及到申请者的决议,这需要更深地对时间,空间,历史,民间心理学的认识程度更深。 Levesque(2013)已经编制了一些令人惊叹的简单问题,这些问题落在了这一类。 (Marcus,2013年,提供了更广泛的受众访问levesque的挑战。)沃森失败的其他课堂答案任务可以被称为动态问答。 这些是在询问时的任何地方的文本形式中可能无法以文本形式记录的问题,或者依赖于随时间变化的因素。 下面给出了这一类别的两个问题(Govindarajulu等,2013):

问题3:如果我有4个摩托车和5个酒吧,如果佛罗萨邦与酒吧不同,那么如果我得到3个刚刚恰好是魔法赛,我会有多少博士?

问题4:在过去60天内,IBM的Sharpe比率是多少?

在沃森的胜利之后,谷歌深度队的伯戈尔·伯戈尔队在五场比赛中有四场比赛中击败了一名去排名第一的球员李苗。 这被认为是AI中的标志性成就,因为它广泛认为是计算机胜利在去的计算机胜利至少几十年之后,部分原因是与国际象棋相比随着巨大的有效序列。[11] 虽然这是一个显着的成就,但应该指出的是,尽管在流行的新闻中令人闷闷不乐地覆盖,但[12] alphago,虽然无可争议地是一个伟大的去球员,就是这样。 例如,alphago和watson都不能理解以简单简单的英语编写的去规则,并制作一个可以播放游戏的计算机程序。 有趣的是,在AI中有一个努力解决这个问题的狭隘版本:在普通游戏中,一台机器就在玩游戏之前的一个全新游戏的描述(Genesereth等,2005)。 但是,所讨论的描述以正式的语言表达,并且机器必须管理从此描述中播放游戏。 请注意,这仍然远未了解英语中游戏的简单描述足以玩它。

但如果我们认为ai的历史不是从哲学的角度看,而是从今天的角度来看,它是最紧密的? 这里的参考资料是计算机科学。 从这个角度来看,艾迪在图灵之前跑回好吗? 有趣的是,结果是相同的:我们发现AI深入了解过去,并始终在静脉中养成了哲学。 这对于计算机科学从逻辑和概率理论造成的简单原因是真实的,[13]又落下(并且仍然与)哲学。 今天,计算机科学通过逻辑射击和通过逻辑射击; 两个字段无法分开。 这种现象已经成为自我研究的对象(Halpern等人2001)。 当我们不对传统逻辑时,而是关于概率形式主义的情况,情况也不是不同的,也是现代AI的重要组成部分:这些形式主义也在哲学中,正如甘肃(1992年)的那样善良。。 例如,在帕斯卡尔的一个心态出生的是一种严格计算概率,条件概率(在AI,目前)的概率(在AI,目前)的概要概率和普罗士尔的概率概率概率的概率(在所述威胁)的概率上这不是成为基督徒是不合理的。

现代的艾迪在哲学中有根源,实际上,这些历史根部比甚至仍然甚至仍然深入的日子,可以通过展望聪明,揭示第二版(第三版是当前一版)的综合教科书人工智能:一种现代化的方法(在AI社区中闻名,只为russell&Norvig,2002年的Aima2e)。

Aima2e封面

Aima2e封面(Russell&Norvig 2002)

您认为有一个折衷的纪念品集合可能在一些想象中的AI研究人员的桌子上。 例如,如果你仔细看,你会专门查看:一张图灵的图片,通过窗户的大本笨笨(可能是R&N的事实,即在一个角度地举行的物理机器具有通用图灵机的物理机器的实际不可能的事实:他Quick认为它必须是大本值的大小),弗雷格·德莫氏肉豆丸中描述的规划算法,一阶逻辑的迷人符号,一瞥刘易斯卡罗尔(1958)的图案表示Syllogistic推理,Ramon Lull的概念生成轮子来自他的13世纪的Ars Magna,以及许多其他孕妇(包括聪明,递归和致命的自我祝贺的触摸,Aima本身的副本)。 虽然这里没有足够的空间来制作所有历史关系,但我们可以安全地从这些物品的外观推断(在这里,我们当然是指古代的历史:亚里士多德设想规划在两个半年半千年之后的信息处理;另外,如此Glymour(1992)注意到,Artistotle也可以归功于设计了第一个知识库和本体,这两种类型的代表方案,这是一个长期以来的AI核心),AI确实非常旧。 即使是那些坚持艾的人至少部分地是文物建筑企业,也必须承认,鉴于这些物品,AI是古老的,因为它不仅仅是从视角来的理论,智能在底部计算中运行的人类历史的偏远过去:LULL的例如,车轮标志着尝试不仅在计算中捕获智能,而且在体现该计算的物理工件中。[14]

Aima现已达到第三版,对AI历史感兴趣的是,对于哲学哲学的历史,对第三部分的掩护不会感到失望(第二版的封面几乎与第一版的封面完全相同)。 (可以在线找到封面的所有元素,单独列出和注释,可以在线找到。)第三版封面的一个重要补充是托马斯贝内斯的绘图; 他的外表反映了我们稍后讨论的AI中概率技术普及的普及次数。

关于AI历史的最后一点似乎值得制作。

通常假设20世纪50年代现代AI的诞生是大部分的,因为通过现代高速数字电脑的出现并通过出现。 这种假设符合常识。 毕竟,AI(而且,对于某种程度上,其堂兄,认知科学,特别是计算认知建模,专门用于产生人类认知计算模拟的认知科学的子领域)旨在在计算机中实施智能,它认为,这样的目标将与此类设备的出现保持联系。 然而,这只是故事的一部分:达到返回的部分,而是达到的部分,而是对第一家电子计算机负责的其他人(例如,von neuman)。 另一部分是,如上所述,AI具有特别强大的领带,历史上讲,推理(基于逻辑,并且需要处理不确定性,归纳/概率推理)。 在这个故事中,甘肃(1992年)讲述了这个问题,寻找问题的答案“什么是证据?” 最终导致了基于Frege的一阶逻辑版本的答案(FOL):A(合理)数学证明由一系列从一个一阶逻辑公式的一系列逐步推广组成。 鉴于许多古典数学,尽管传统的智慧,但仍然无法在FOL;即使是花生公理,也表达为有限的公式,所以需要溶解的情况,这不是一个完整的答案,这不是一个完整的答案。不仅是数学思维,而且思考,期间,可以在文章中表达。 (这个延伸是在信息处理心理学和认知科学开始前很久的许多逻辑书娱乐 - 事实上,一些认知心理学家和认知科学家经常似乎忘了。)今天,基于逻辑的AI只是AI的一部分,但这一点是这一部分仍然生活(逻辑的帮助,更强大,但比fol)更复杂),它可以追溯到亚里士多德的三段论理论。[15] 在不确定的推理的情况下,问题不是“证据是什么?”,而是诸如“鉴于某些观察和概率的理性是有理的,鉴于相信的是什么?” 这是一个问题,在数字计算机到达之前很久就会姿势。

2. AI究竟是什么?

到目前为止,我们一直在进行,就好像我们有一个坚定而精确地掌握AI的性质。 但究竟是什么啊? 哲学家可以比任何恰好定义特定学科对所有相关方(包括在学科本身工作)的满意度的人来说更好地了解,这可能是急剧挑战性的。 科学哲学家肯定会拟议至少构成一般的科学和/或工程领域的一般形状和质地的可信账户,但究竟究竟是关于物理学的定义究竟是什么? 生物学怎么样? 对于那件事,是什么,是哲学,究竟是哲学? 这些非常困难,甚至可能是永恒不可否认的,问题,特别是如果目标是共识定义。 也许我们在这里可以在明显的空间限制下管理的最谨慎的课程是呈现封装形式的某些建议的AI定义。 我们确实包括最近尝试定义AI的近期尝试(并且我们怀疑这种尝试对科学哲学家有兴趣,以及对哲学的这个次领域的人感兴趣)。

Russell和Norvig(1995年,2002年,2009年),在上述艾玛文本中,为“AI是什么”提供一系列可能的答案 在现场本身拥有相当大货币的问题。 这些答案都假定AI应在其目标方面定义:因此,候选定义具有“AI是旨在建造的领域”的形式,答案全部落在沿着两个维度的四重奏中。 一个维度是目标是匹配人类性能,或者,也是理想的理性。 另一个维度是目标是构建原因/思考的系统,或者是该行为的系统。 本表中的情况总结如下:

以人为本。理想的理性

基于推理的推理:认为像人类一样的系统。 理性思考的系统。

基于行为:像人类一样的系统。 合理行用的系统。

Ai Aia的四个可能的目标目标

请注意,这一四重可能性确实反映了相关文献的(至少是一部分)。 例如,当他说AI是“让计算机思考的令人兴奋的新努力......用思想,充满文语意义时,哲学家John Haugeland(1985)落入了人类/推理象限。” (到目前为止,这是最受欢迎的叙述肯定和探索的象限。最近的Westworld TV系列是一个强大的案例。)Luger和Studblefield(1993)当他们写的时候落入理想/行动象限:“计算机科学的分支关注智能行为的自动化。” 通过提取,人/行动职位最突出地占据,其测试仅通过能够充分地类似人类行动的系统来传递。 Winston(例如)的“理性”职位是(例如)的辩护(例如)。 虽然可能并不完全是无助的,但是断言这里给出的四个垃圾箱都详尽无遗,似乎这种断言似乎是相当合理的,即使当目前的文献达到了浮雕。

(本章完)

相关推荐