人工智能(六)

其次,我们现在知道(熟悉相关的正式地形的人在Dennett写作时知道)信息处理可以超过标准计算,即,可以超过计算在图定机器可以集合的内容(图测计算,我们将说)。 (此类信息处理被称为超级截止,这是哲学家杰克·宾夕法尼亚州的术语,他拥有自己定义了这样的机器(例如,Copeland 1998)。能够超越的第一台机器是试用机器,在同一个着名的问题中介绍象征逻辑杂志(Gold 1965; Putnam 1965)。一种新的超级计算机是无限的时间图灵机(Hamkins&Lewis 2000)。)Dennett对教会论文的吸引力因此在数学面前苍蝇事实:信息处理的一些品种超过标准计算(或图灵计算)。 教会的论文,或者更准确地说,教会读取论文是函数F是有效可计可及可计算的,且仅当F是计算的(即,一些图定机器可以计算f)。 因此,本论文对信息处理无言无言比更苛刻的信息处理比图灵机可以实现。 (换句话说,在能够超出TMS的信息的信息处理设备中,没有反击示例到CTT。)对于所有哲学和心理学都知道,智力,即使与信息处理相关联,超过了如何进行计算或图灵 - 机械。[38] 这尤其如此,因为与AI不同,哲学和心理学与AI不同,无法从根本上被指控工程伪影,这使得超自然与他们的观点无关的物理可实现性。 因此,Contra Dennett作为心理学或哲学将AI考虑是犯下严重的错误,正是因为这样做,所以这样做只会将这些字段置于从自然数量(包括toullsomflom)到自然数的整个功能空间。 (此空间中只有一个微小的功能是计算可计算的。)AI毫无疑问,比这对字段更窄得多。 当然,可以通过编写计算机程序并在体现的图灵机上运行它们来替代的字段替换AI。 但是这个新的领域,根据定义,不是ai。 我们对AIMA和其他教科书的探索提供了直接的实证确认。

第三,大多数AI研究人员和开发人员都只是关注构建有用,有利可图的文物,并没有花费很多时间反映在该条目中探索的智能的种类(例如,究竟是什么AI?)。

虽然AI不是哲学,但肯定会有真正的实现 - 主要的最高级别的主要实施方式,这些是与哲学密切相关的最高口径。 证明这一点的最佳方法是简单地存在这种研究和发展,或者至少是其代表性示例。 虽然有许多这样的工作示例,但AI中最突出的例子是John Pollock的奥斯卡项目,它在他的一生中延伸了相当大的一部分。 有关详细的演示和进一步讨论,请参阅

奥斯卡项目补充。

重要的是要注意奥斯卡项目,以及解除它的信息处理,毫无疑问,曾经是哲学和技术AI的问题。 鉴于有关的工作已经出现在人工智能页面中,这是一个致力于该领域的一级期刊,而不是哲学,这是不可否认的(参见,例如,Pollock 2001,1992)。 这一点很重要,因为当它肯定是适当的,在目前的场地中强调AI和哲学之间的联系,一些读者可能怀疑这种重点是:他们可能怀疑这一问题的真相是在AI期刊上的那个页面。充满了狭隘的技术内容,远远哲学。 许多这样的论文确实存在。 但我们必须区分旨在提出AI的性质的着作,以及其核心方法和目标,而设计用于在特定技术问题上提出进展的作品。

后者类别中的着作比不太狭隘,但作为Pollock所示的例子,有时这些具体问题与哲学有不可分割。 当然,波洛克的工作是一个代表性的例子(尽管最实质上是一个)。 一个人可以轻松地通过碰巧也产生直接哲学的人们选择的工作。 例如,对于在AI和计算机科学的范围内写的整本书,但在许多方面都是认识的逻辑,适合在该主题的研讨会上使用,看(Fagin等,2004)。 (很难找到以某种直接方式与哲学有限公司的技术工作。例如,AI对学习的研究全部与归类哲学治疗紧密束缚,这些概念如何在先前的概念上学到的真正可以学习的新概念。一个可能的新概念AI提供的部分答案是invuctive逻辑编程,在Aima的第19章中讨论了。)

前类别的着作是什么? 在这一类别中的作品,而在AI场地的定义,不是哲学的,仍然是哲学。 大多数教科书包括大量的材料,它落入后一类,因此它们包括讨论AI的哲学性质(例如,AI旨在建立人工智能,这就是为什么毕竟,它被称为'AI')。

8.人工智能哲学

8.1“强”与“弱”ai

回想一下,我们早些时候讨论了AI的拟议定义,并特别记录了这些提案,以便在该领域的目标方面得到了影响。 我们可以在这里遵循这种模式:我们可以通过注意到这两个版本的AI努力达到的不同目标来区分“强烈”和“弱”AI。 “强烈”AI寻求创造人工人工:拥有我们拥有的所有精神力量的机器,包括非凡意识。 另一方面,“弱”AI旨在建立似乎拥有人类全部心理曲目的信息加工机器(Searle 1997)。 “弱”AI也可以定义为AI的形式,其目的是不仅可以通过图灵测试(再次,缩短为TT),而是完整的图灵测试(Harnad 1991)。 在TTT中,一台机器必须比语言无法区分更多地;它必须在所有行为中传递人类 - 扔棒球,吃,教学等等。

哲学家似乎似乎似乎是非常困难的,以推翻“弱”AI(Bringsjord和Xiao 2000)。 毕竟,哲学理由呈现出似乎似乎是动物甚至人类的文物的方式? 然而,一些哲学家旨在在“强烈”Ai中进行,我们现在转向最突出的案例。

8.2中国房间对“强壮AI”的争论

毫无疑问,AI哲学中最着名的论点是John Searle(1980)中国房间论点(CRA),旨在推翻“强烈”AI。 我们在这里展示了一个快速摘要和一个“来自战壕的报告”,即AI从业者如何将争论视为争论。 想要进一步研究CRA的读者将在中国房间论证和(Bishop&Preston 2002)中找到一个很好的下一步。

CRA是基于一个思想实验,在思考实验中,他是他自己的星星。 他在一个房间里; 房间外面是母语的讲话者,他不知道塞尔在里面。 Searle-in--oke-in-in-in-in-in-in verive,不知道中文,但精通英语。 中国扬声器通过插槽将卡片送入房间; 在这些卡上是中文的书面问题。 盒子在其中提供Searle的秘密工作,将卡作为输出返回母语。 Searle的输出是通过咨询规则书来制作的:这本书是一个查找表,告诉他基于所发送的内容。对于Searle,中国人都只是一堆 - 使用Searle的语言 - Squiggle-scrgles。 以下示意图占据了情况。 标签应该是显而易见的。 o表示外部观察员,在这种情况下,中国扬声器。 输入由I表示并由O输出。 正如您所看到的,规则本有一个图标,并且Searle自己是由P的表示。

中国房间的输入/输出图

中国房间,示意图

现在,基于这个思想实验的论点是什么? 即使你以前从未听说过CRA,你毫无疑问也可以看到基本的想法:Searle(在盒子里)应该是一切都可以成为一切,而且因为他不理解中国人,没有电脑可以有这样的理解。 Searle在根本上,(根据论点,根据论点),(根据论点),所有计算机都是从根本上做的。[39]

CRA今天站在哪里? 正如我们已经指出的那样,争论似乎似乎还活着; 见证人(Bishop&Preston 2002)。 然而,毫无疑问,至少在AI从业者中,CRA通常被拒绝。 (这当然是彻底的不成本。)在这些从业者中,提供了从AI本身提供最强大的响应的哲学家是Rapaport(1988),据称,虽然AI系统确实是句法,但正确的语法可以构成语义。 应该说的是,“强烈”艾的异议中的共同态度是CRA不仅是不合作的,而且愚蠢地,因为它是一个幻想的故事(CR)远离AI练习的实践,这是一年逐年无能为力地走向复杂。机器人曾经和所有沉默的CRA及其支持者。 例如,John Pollock(正如我们所指出的那样,AI的哲学家和从业者)写道:

一旦[我的智能系统]奥斯卡是全功能的,来自类比的论点将导致我们不可否认地将思想和感受归因于奥斯卡,这是我们将它们归于人类的相同凭证。 相反的哲学论据将是passé。 (Pollock 1995,第6页)

为了涂上对CRA的讨论,我们做出了两个快点,智慧:

尽管对CRA的最终不可能的喜好的最终不可能在奥斯卡最终的人类水平潜力(以及通过扩展,任何其他其他仍在改进的AI系统)的情况下,蛮横的事实是深度语义自然 - 语言处理(NLP)很少甚至追求这些天,所以CRA的支持者肯定不是鉴于AI当前状态感到一些不适的人。 简而言之,Searle将正确地指向AI的任何成功案例,包括我们所讨论的Watson系统,并且仍然宣称理解无处可见 - 他将在他说的哲学权利中。

看来CRA鉴于某些思想家现在向未来意识的效果发出明确的警告,鉴于未来意识,恶毒机可能在我们的物种中发出明确警告的经验事实,似乎是冒泡的一段时间。。 在回复中,Searle(2014)指出,由于CRA是声音,因此不能有意识的机器; 如果不能有意识的机器,则不能有任何愿望的恶意机。 我们在进入结束时返回这一点; 这里的首席点是CRA仍然是相当相关的,事实上,我们怀疑Searle禁忌的基础将由哲学家,但是专家,未来学者,律师和政策制定者能够充满活力地服用。

读者可能想知道AI研究人员是否有哲学辩论,在他们的领域工作(而不是当他们可能参加哲学会议时)。 当然,AI研究人员在自己之间有哲学讨论,对吧?

一般来说,人们发现AI研究人员在AI的哲学中讨论了他们自己的主题,而这些主题通常是占据AI哲学家的相同。 然而,在上述Pollock的报价中反映的态度是迄今为止的主导之一。 即一般来说,AI研究人员的态度是,哲学有时是有趣的,但AI工程的向上3月不能停止,不会失败,最终会渲染这种哲学偏离。

我们将在本条目的最后一部分返回AI未来的问题。

8.3对“强壮AI”的意见辩论

四十年前,J.R. Lucas(1964)认为,哥特的第一个不完整的定理需要没有机器可以达到人力级智力。 他的论点并没有被证明是引人注目的,但卢卡斯发起了一个产生更加强大论据的辩论。 卢卡斯的无穷无尽的防守者之一是物理学家罗杰·彭罗斯,其首次试图辩护卢卡斯是一个关于他在皇帝新思想(1989年)的“强烈”艾的意见袭击。 第一次尝试缩短,彭罗斯发表了一个更精细的和更加挑剔的意大利案,表达了他的章节和他的阴影(1994)的阴影。

鉴于读者可以转向哥特人的不完整定理的进入,这是不需要的完整审查。 相反,读者将通过转向彭罗斯的在线论文,写作批评者的在线纸(例如,哲学家大卫查尔姆,逻辑师所罗门的施法者和计算机科学家绘制麦克塞尔莫特)他的阴影,蒸馏到几段的争论。[40] 实际上,在本文中,PenRose给出了他所采用的完美版本的核心意大利案件。 这是此版本,逐字:

我们试图假设原则上是人类可访问的(不可达到的)数学推理的方法可以封装在一些(不一定计算)声音正式系统F.人类数学家,如果呈现F,可以如下争论(请记住,“我是F”短语只是“F封装所有人类可访问的数学证明方法”的速记):

(a)“虽然我不知道我必然是f,但是,如果我是,那么,系统f必须听起来,更重要的是,f'必须听起来,其中f'是由进一步的断言辅以的f' 我认为它是从假设中遵循的是,我是哥特语句G(F')必须是真的,而且,它不会是F'的结果。 但我只是认为“如果我碰巧是f,那么g(f')必须是真的,”并且对这种性质的看法将是恰恰是f'应该实现的。 由于我能够感知到超出F'之外的东西,我推断出毕竟我不能成为f。 此外,这适用于任何其他(Gödelizable)系统,代替F.“ (Penrose 1996,3.2)

这个论点成功了吗? 坚定地回答这个问题是不适合在现在的条目中寻求的。 鼓励感兴趣的读者咨询了这一论点的四种全面治疗(Laforte等。艾拉1998; Bringsjord和Xiao 2000; Shapiro 2003; Bowie 1982)。

8.4 AI哲学的其他主题和读数

除了简要介绍的意大利人和苏尔灵争论外,还广泛讨论了关于“强”AI(象征性的品种)的第三次攻击(尽管随着统计机器学习的崛起,所需的注意力降低),即由哲学家Hubert Dreyfus(1972,1992)给出的,一些化身与他的计算机科学家,斯图尔特·雷丝(1987年)与他的兄弟,斯图尔特·雷丝(1987)共同阐述。 粗略地说,这次攻击中的核心思想是人类的专业知识不是基于明确的,中断的,机械操纵象征信息(如在一些逻辑中的公式,或一些贝叶斯网络中的概率),并且AI努力建立如果基于符号范例,则具有此类专业知识的机器。 雷丝袭击的成因是一种信念,即(如果您将)以象征为基础的哲学(例如,基于逻辑,理性的传统,而不是被称为大陆传统的哲学)正如海德格格和梅勒 - 庞蒂可以抵御AI的理性主义传统。 在进一步阅读和研究Dreyfus的着作之后,读者可以判断这一批评是否引人注目,在信息驱动的世界中,通过执行象征性推理的智能代理人越来越多地管理(尽管甚至没有接近人类水平)。

对于读者有兴趣探索AI的哲学,超出了Jim Moor(最近的地址 - “在AI的未来五十年中:未来的科学研究与过去的哲学批评” - 作为2006年的2006年的WARWER奖获得者在每年的东方美国哲学协会会议)已称为“大三”批评,额外的材料没有缺乏额外材料,它在网上提供了大部分。 Aima的最后一章提供了对“强”AI的一些额外论点的压缩概述,并且一般并不是一个不好的下一步。 毋庸置疑,今天的AI哲学涉及上面讨论的三个着名论据,不可避免地,明天的AI哲学将包括我们现在看不到的新辩论和问题。 因为机器不可避免地会变得更聪明,更聪明(无论他们如何聪明地聪明),AI的哲学,纯粹和简单,是一个增长行业。 随着机器匹配的每项人类活动,“大”问题只会吸引更多的关注。

9.未来

如果过去的预测是任何指示,我们今天唯一知道的是明天的科学和技术就是这将是完全不同的,而不是我们预测它将是这样的。 可以说,在AI的情况下,我们今天也可能具体了解,进步比最期望的进展速度得多。 毕竟,在1956年开球会议(在本入口开始时讨论),Herb Simon预测能够与人类思维相匹配的思维机器是“在拐角处”(对于相关的报价和信息讨论,请参阅Aima的第一章)。 事实证明,新世纪将在没有单机甚至蹒跚学步的级别交流的情况下到达。 (回想一下,当谈到能够显示人级智能的机器的建筑物时,笛卡尔,而不是提出,似乎今天是更好的先知。)尽管如此,虽然可能是,但20世纪后期的严重思想家仍然存在令人惊讶的是令人难以置疑的乐观预测,关于AI的进步。 例如,在他的机器人中,Mans Moravec(1999):仅仅是机器到经验性的心态,通知我们,因为计算机硬件的速度每18个月加倍(根据摩尔人的法律,这显然在过去举行),“第四代”机器人将足够很快超越人们在各方面,从奔跑公司写小说。 这些机器人,所以故事越来越多,将演变为如此崇高的认知高度,我们将在今天的单细胞生物体对我们身边站立。[41]

Moravec绝不是单独的Pollylyanna:AI中的许多其他人都预测了相同的耸人听的未来展现在相同的快速安排上。 事实上,在上述AI @ 50会议上,吉姆沼地提出了“将在未来50年内实现人类级别的人类才能实现?” 到了参加原版1956年大会的五位思想家:John McCarthy,Marvin Minsky,Oliver Selfridge,Ray Seloomonoff和Trenchard Moore。 麦卡锡和米斯基的坚定,没有冒失的肯定和所罗门组织似乎似乎是由于我们的物种似乎弯曲自己的物种似乎弯曲了一缕希望。 (Selfridge的回复是有点神秘。摩尔返回了一个坚定的消极,明确的负面,并宣布一旦他的电脑聪明,就足够互动地与他互动地了解数学问题,他可能会更认真地掌握这一整个企业。)它留给读者来判断Moravec,McCarthy和Minsky所提供的这种风险预测的准确性。[42]

读者在这方面的判断应该在最近的令人惊叹的复苏中,最近,对所谓的“奇点”(仅仅是S)来说,人工智能超过人类智力的未来点此后(作为故事的故事),机器让自己迅速更聪明,更聪明,聪明,达到超人的智力水平,因为我们在泥浆中陷入了有限的介绍,我们不能愚蠢。 对于对S的广泛,平衡分析,见伊甸园等。 (2013)。

(本章完)

相关推荐