中国房间的论点(四)

我们将对幼儿,狗和其他动物的语言有限地理解,但目前尚不清楚我们是IPSO事实上归因于主观意识的看不见的国家 - 我们对异国情调的生物的隐藏状态是什么? Ludwig Wittgenstein(私人语言论点)和他的追随者按了类似的观点。 改变了Qualia可能性,类似于倒立光谱,出现:假设我问“5和7的总和是什么,你回答”5和7的总和是12“,但是当你听到我的问题时,你有意识的听力和理解的经历”是什么10和14“,尽管您是适合制作正确总额的计算状态,但所说的”12“。 某些功能状态是否有一些有意识的国家,“正确”? 如果语言用户显示适当的语言行为,维根斯坦的考虑因素似乎是主观状态是无关的。 毕竟,我们在我们的公开反应的基础上进行语言,而不是我们的Qualia或意识状态。 数学拯救的丹尼尔Tammet报告称,当他生成PI的十进制扩展到数千位数时,他经历了揭示下一个数字的颜色,但即使在这里,也可能是叛徒的表现可能不会被他经历的颜色产生的,而是由他经历的颜色产生无意识的神经计算,产生正确的答案和他经历的颜色。 主观国家的可能重要性在下面的意向性的部分中进一步考虑。

由于CRA对另一个其他思想问题的哲学兴趣,即僵尸的可能性,看起来像是正常的人类,包括语言行为,但没有主观意识。 难以让主观意识的主观态度对于理解意义至关重要,在这些缺乏皇室的情况下会出现:我们无法讲述僵尸和非僵尸之间的区别,等等我们无法讲述那些真正了解英语的人之间的区别。 如果你和我无法讲述那些就像他们所做的语言和僵尸的人之间的区别,而不是真的,而不是人类演变史上的任何选择因素 - 对于掠食者,伙伴,同伴部落成员,僵尸和真正的理解者,有“正确”的意识经验,一直无法区分。 但后来似乎没有区别。 无论如何,Searle对其他思想的短暂回复回复可能太短。

Descartes着名辩称,言论就足以归因于别人的思想和意识,并且难以理解的是有必要的。 在智力中,学生的依赖是缺陷的充足条件,同时代替编写的口腔语言行为。 由于我们大多数人使用对话框作为归因于归因于理解的充分条件,因此符合该语音是一种足够的条件,可以归因于对人类的理解,但不是为了不共享我们生物学的任何东西,似乎归因于归因于归因于归因的账户附加归因。 此外,如果是CON特定的是SEARLE账户的关键,则会产生自然问题,即在归因于不分享我们生物学的境外外星人的理解(或意识)是正确的 通过扣留理解的归属于进行大脑扫描或验尸可能存在危险之后,违规et。

Carnegie Mellon大学的机器人实验室主任Hans Moravec以及机器人的作者:仅仅是经过立刻的思想,认为Searle的立场只是反映了传统的心灵哲学的直觉,这些思想与之脱离了新认知科学。 Moravec认可其他思想回复的版本。 有意义与机器有意义的原因,原因是将它们归因于人类的意义; 他的“解释性地位”类似于丹内特的观点。 Moravec继续注意到我们归因于他人的事情之一是使有意性的归属能力,然后我们为自己制定这样的归属。 他认为这种自我代表性是意识的核心。 这些能力似乎是独立的实现,因此可以为外星人和适当编程的计算机进行。

正如我们所看到的,Searle认为我们可以忽视机器人和计算机的行为证据的原因是我们知道他们的处理是句法,而这一事实胜过所有其他考虑因素。 事实上,Searle认为这是中国房间仅说明的更大点。 下面的语法和语义部分解决了这个较大的点。

4.5直觉回复

许多对中国房间论点的回应已经指出,与莱布尼兹的磨机一样,该论点似乎基于直觉:电脑(或房间里的人)的直觉无法想到或有理。 例如,他的原始BBS评论中的NED块(1980)说,“Searle的论点取决于其在某些实体不思考的直觉上的力量。” 但是,块争辩说,(1)直觉有时可以并且应该胜过(2),或许我们需要将我们的理解概念与某些计算机机器人属于与人类相同的自然类型的现实。 同样地,玛格丽特·博登(1988年)指出,我们不能相信我们无情的直觉,了解如何依赖物质; 科学的发展可能会改变我们的直觉。 实际上,在我们的直觉中消除了偏差恰恰是有动机的图灵(1950)提出了图灵测试,这是对对问题的系统的物理特征视而不见的测试。 一些Searle的批评者有效地认为,他只是将依赖直觉恢复到了房间里。

例如,尽管他在房间里不会理解中文,但他可能会误解,也是不知不觉的。 Hauser(2002)指责笛卡尔·偏见在他推断的“看来很明显的是,我不理解的结论是我真正理解的。 (从“我真的可以清楚地想象自己没有我的身体存在”,笛卡尔不稳定地推断出“我可以在没有我的身体的情况下存在。”)通常,如果一个人理解英语或中文,人们就会知道一个人 - 但不一定是。 中国房间的男人可能缺乏对理解的正常思考意识 - 但是这一点而异常,不支持他不理解的结论。

CRA的批评者注意到我们对情报,理解和意义的直觉可能都是不可靠的。 关于意义,韦克菲尔德2003年之后的1998年,捍卫了韦斯特赛的叫做“基本主义反对意见”到CRA,即意义的计算叙述不是对普通概念及其相关直觉的分析。 相反,我们正在构建科学的意义理论,可能需要修改我们的直觉。 作为一个理论,它从其解释性权力获得证据,而不是其符合定理的直觉(然而,Wakefield本人认为意义的计算账户受到了无敌的不确定(PP.308FF)的归属于折磨。

其他批评者关注直觉在CRA中的作用辩称,我们对智力和理解的直觉也可能是不可靠的,也许即使目前的科学也可能不相容。 关于理解,史蒂文粉红色,在心灵作品(1997年)如何,持有“...... Searle只是探索关于英语单词的事实了解......。 除非某些陈规定型条件适用,否则人们不愿意使用这个词......“但是,粉红色的索赔,没有什么科学的说话是有利害的。 粉红色的物体通过注意到因果动力的表观轨迹是“大脑的因果动力”的吸引力,是“执行正确信息处理的互连模式”。 Pinker通过引用一个科幻故事来结束他的讨论,其中一个科幻故事,其中外星人统一地不同于人类,不能相信人类可以真正思考,一旦他们发现我们的头充满了肉。 外星人的直觉是不可靠的 - 大概我们的可能也是如此。

显然,CRA打开了了解语言所需的内容。 Schank 1978阐明了他对他的课程可以做些什么:“通过'理解',我们的意思是SAM [他的一个程序]可以创建一个有关的概念化链条,代表每个故事发生的事情。” 这是对“理解”的谨慎理解,而中国房间思想实验并没有开启对“了解”的技术理解,而是在我们理解“汉堡包”之类的话语时对我们的普通能力进行直观。 事实上,到2015年Schank距离“了解”的弱道距离,并阻止没有电脑可以“知道当你告诉它某些东西”,而IBM的Watson“不知道它在说什么”。 Schank的程序可能会获得正确的链接,但可以说不知道链接实体是什么。 它是否有或不依赖于什么概念,请参阅第5.1节。 此外,在归因于对语言的理解归因于语言,我们对不同的东西有不同的标准 - 更放松狗和幼儿。 有些事情理解语言“联合国POCO”。 Searle(1980)承认有理解程度,但表示有明确的案例没有理解的事情,而AI计划是一个例子:“计算机理解不仅仅是我对德语的理解)部分或不完整; 它为零。“

某些艾的捍卫者也涉及我们对中国房间争论的理解如何理解。 在他们的论文中,“一个了解”AI研究人员Simon和Eisenstadt(2002)认为,而Searle驳斥“逻辑强壮AI”,这篇论文通过了所经过的计划必然会理解,Searle的论点不是谴责“经验强烈的AI” - 论证可以编制一个令人信服地满足普通理解标准的计算机。 然而,他们坚持认为,不可能解决这些问题“如果没有采用”理解“一词的定义,可以提供用于判断假设是否真实的或假的测试。 他们引用w.v.o. Quine的词和对象表明,归因于人类的理解总是具有经验的不确定性。 中国房间是一个聪明的汉斯伎俩(聪明的汉斯是一匹似乎在简单的算术问题上淘汰答案的马,但发现汉斯可以从他的教练中发现无意识的线索)。 同样,房间里的男人不理解中国人,可以密切关注他来暴露。 (Simon和Eisenstadt不解释这将是如何完成的,或者它会如何影响争论。)引用Rudolf Carnap的工作,Simon和Eisenstadt认为,要理解不仅仅是表现出某些行为,而是要使用“的加重”确定扩展,并且可以在他们确实使用适当的共度的实际程序中看到。 他们讨论了三个实际的AI计划,并捍卫他们的各种心态归属,包括理解,并得出结论,即计算机理解; 他们通过感官刺激检测到,通过将单词和其他语言结构与他们的表示来学习“强调”。 既然我们可以完全看机器如何工作,“实际上更容易建立一台机器展示了解,以确定人类展示理解......” 因此,他们得出结论,经验强大的AI的证据是压倒性的。

同样,Daniel Dennett在他原来的1980年回应了Searle的论点,称为它“一个直觉泵”,他在与道格拉斯霍夫斯塔多讨论CRA时出现了一个术语。 Sharvy 1983年呼吁投诉。 Dennett被认为是观点(2013年)是CRA是“显然是一个谬误和误导的论点......” (第320页)。 Paul Thagard(2013)提出,对于哲学的每个思想实验,有一个平等和相反的思想实验。 Thagard认为直觉是不可靠的,CRA是一个例子(实际上,CRA现已被自主机器人汽车技术驳斥)。 Dennett已阐述了对我们对情报的直觉的担忧。 Dennett 1987(“快速思考”)对中国房间的速度进行了速度表示担忧,他已被其他几个评论员加入,包括蒂姆·迈尔林,大卫查尔姆斯和史蒂文粉红色。 中国房间的运营商最终可能会对中国问题产生适当的答案。 但慢思想家是愚蠢的,而不是聪明 - 在野外,他们可能会最终死亡。 Dennett认为,“速度......是精华的精华”。 如果您无法弄清楚更改环境的相关部分足够快,以便自行击打,您实际上并不是智能化,但您的复杂性“(326)。 因此,Dennett相对于当前环境将智能释放到处理速度。

Tim Maudlin(1989)不同意。 ***认为其他作家指出的时间级问题,并结束了计算系统的极端缓慢的对抗丹内特并未违反思维或意识的必要条件。 此外,Searle的主要索赔是关于理解,而不是智慧或速写。 如果我们要遇到额外的地面,可以比我们更快地处理一千次信息,似乎会表明我们自己的慢倾言能够理解我们所说的语言。

Steven Pinker(1997)还拥有塞尔勒依靠无情的直觉。 Pinker赞同教堂(1990)的挥舞着磁铁的类似思想实验的教堂(1990)的实验,并没有产生这种结果不会反驳光明由电磁波组成的Maxwell的理论。 Pinker认为关键问题是速度:“思想实验会减慢波浪到我们人类不再将它们视为光的范围。 通过信任我们的直觉在思想实验中,我们错误地得出结论,快速波也不能轻。 同样,Searle已经向下减慢了心理计算到我们人类不再将其视为理解(自理解通常更快)“(94-95)。 Howard Gardiner是一个关于房间的结论的支持者,对理解具有类似的观点。 Gardiner在他的书中解决了中国房间的论据,这是一个思想的新科学(1985,171-177)。 Gardiner考虑了中国房间论点的所有标准回复,并得出结论,Searle对房间是正确的:“......理解这个词在中国房间的情况下已经过分延长......” (175)。

因此,这组评论家中的几个争论速度会影响我们愿意将智力和理解归因于慢速系统,例如在中国房间。 结果可能只是我们的直觉,关于中国房间是不可靠的,因此房间里的人在实现该计划时,尽管能够直观地(Maudlin和Pinker)可能会理解中国人。 或者,弱势可能标志着房间的模拟与快速计算机之间的关键差异,使得该人在计算机系统(Dennett)时不智能。

4.6人工智能的进步

即使是2001年,Robert Damper [2001年,其他互联网资源)也将CRA视为无用,而且可能有害,因为“塞尔和其他人似乎准备好准备就准备就绪 - 存在一个能够通过图灵测试的中国”了解“程序的存在......是到目前为止超出了AI和计算机技术的当前能力,达到科幻小说。 我们可以从这种幻想概念中吸取教训? 没有现实的方法可以解决出现的任何悖论,节省常识的吸引力,我们从Quantum Mechanics的示例中知道这是多么糟糕。“ 在2015年,史蒂文粉红粉末评论着“人类级别仍然是15至25年的标准,就像它总是......”

Searle的论点是在20世纪70年代后期开发的,介绍了跨栏电脑的20多年,以及第一台AI会议(1956年)。 从那时起,与CRA相关的领域有很大的进步,以及许多回复:计算速度和电力,机器人,人工智能,神经网络以及点对点,自然语言处理。

2022年底,基于大型语言模型(LLMS)的AI系统得到了广泛的关注,从学者到他们的论文写作学生,以及许多语言能力很重要的其他职业。 虽然Shank的程序和数据库是手工制造的,所以(一次调试一次!)他们对句子的高度有限的句子或两个关于餐馆的输出很少,如果有的话,如果让程序员惊喜,LLM系统爬行万维网,可以在可能全部段落之后生成段落新闻给他们的编码人员。

这对CRA有任何影响吗? Sabine Hossenfelder(2023)辩称,这些聊天伙伴了解他们所说的一些,即人类了解量子力学的同样的感觉。 我们可以理解公式,足以进行预测,但我们没有深刻理解为什么方程式是他们所在的。 AI芯片制造商NVIDIA的Jensen Huang(2024年[其他互联网资源])看看没有这样的限制:“生成AI是我们时代最有影响的发明,以及电力和互联网,它会影响每个人和每个行业。 ...... LLMS,学会了解人类语言,事先知识,甚至从大量文本中甚至一些常识。“

毫无疑问,AI代理现在有一种单词,可以提供有用的信息。 如果这些模型可以比诊断人员更好地诊断疾病,写作比散文家更好,比律师更好地争论法,并比教师更好地回答问题,然后似乎是悲伤的酸葡萄说“但他们不理解任何事情”。 AI进步驳斥了Searle吗? 在2024年询问“你了解英语单词',聊天自己回应”是的,我理解英语单词,可以处理并响应它们。 如果您有任何疑问或需要特定的东西,请告诉我!“ 如果询问汉堡包是什么,那是一个自然语言计划无法理解的东西的例子。 它很容易解释汉堡包和“汉堡包”这个词之间的差异。 但是,当按下并询问它是如何理解英语,聊天“我通过模式和背景的组合响应”我理解英语语义“ 直接被问后,“John Searle争辩说你无法从语法中获得语义 - 他是纠正吗?” 响应是“Searle的论点突出了一个至关重要的限制:单独的语法不足以完全捕获语义。 虽然句法规则为构建句子提供了一个框架,但了解含义涉及额外的上下文层,解释,通常是真实的知识。“ 并“并不是Searle的论点申请聊天?” 我们得到“是的,John Searle的论点确实适用于聊天等系统。 ... Chatgpt使用从大量文本中使用模式和规则,它已被培训以生成响应。 它基于单词和短语之间的统计相关性,模仿句法结构。 ......聊天不真正了解人类意义上的意义。 它生成了基于它所学到的模式,似乎有意义的文本,但它缺乏真正的理解内容或背景,超出了预测所培训的内容或背景。“

因此,矛盾地,系统似乎明白它不明白。 然而,它未能注意到这些索赔与其以前几分钟的产出不一致。 所以我们还没有。 一个系统仔细争辩的拒绝回答问题,可以理解任何事情都不会通过图灵测试。 然而,这可能会在将来解决,使得LLM系统将避免被称为“入选自杀”(例如“的问题,这是您的问题的答案,但我不明白您的问题”)。 结果可能是,如果使用语言的系统就像在所有上下文中一样熟练的系统都是由思想实验的思考实验,那么我们无法测试“真实”的理解,它没有任何东西对我们使用语言的目的。 “真的”理解成为癫痫症:未检测到的,因果性和无关紧要。

5.更大的哲学问题

5.1语法和语义

Searle认为,中国房间思想实验支持更大的点,这解释了中国房间的失败来产生理解。 Searle认为计算机实施的程序只是句法。 计算机操作是“正式”,因为它们仅响应符号字符串的物理形式,而不是符号的含义。 另一方面,思想有含义,心理内容。 我们将含义与语言中的单词或标志联系起来。 我们因其含义而回应迹象,而不仅仅是他们的外表。 简而言之,我们理解。 但是,根据Searle这是关键点,“语法并不是足够的,也不是足够的,也不是由组成的语义。” 因此,虽然计算机可能能够操纵语法来产生对自然语言输入的适当响应,但它们不了解他们接收或输出的句子,因为它们不能与单词关联含义。

Searle(1984)展示了一个三个前提的论点,因为语法不足以进行语义,程序不能产生思想。

程序纯粹是正式的(句法)。

人类的思想有心理内容(语义)。

语法本身既不是本构规则,也不是足够的语义内容。

因此,程序本身不是思想的本构规定的。

中国房间思想实验本身是对第三个前提的支持。 声称句法操纵是不足的意义或思想是一个重要问题,具有比AI更广泛的影响,或理解的归属。 突出的思想理论认为人类认知通常是计算的。 在一种形式中,认为思想涉及符合其物理性质的符号的操作。 在替代连接人物帐户中,计算位于“usmymbolic”状态。 如果SEARLE是对的,不仅强烈的AI,而且这些理解人类认知的主要方法是误导。

(本章完)

相关推荐