中国房间的论点(六)
5.3头脑和身体
几个批评者已经注意到原始论证中存在股份中的形而上学问题。 系统回答引起了对身体的关系的形而上学问题。 它确实如此掌握,这种理解是整个系统的属性,而不是物理实施者。 虚拟思维回复持有这种思想或人 - 理解和有意识的实体 - 比任何物理系统更摘要,并且在思想和物理系统之间可能存在多对一的关系。 (即使一切都是物理的,原则上也可以通过多种思想来共享单身,并且单一的思想可以随着时间的推移来拥有一系列的身体。)因此,关于个人身份和心灵和身体的关系的更大问题在Searle和一些批评者之间的辩论中。
Searle的观点是,心灵和身体关系的问题“有一个相当简单的解决方案。 这里是:有意识的状态是由大脑中较低水平的神经生物学过程引起的,并且本身是大脑的更高水平特征“(Searle 2002b,p.9)。 在他对CRA的早期讨论中,Searle讲述了大脑的因果力。 因此,他的观点似乎是脑状态引起意识和理解,“意识只是大脑的特征”(同上)。 然而,正如我们所看到的那样,即使这是真的,它就会乞求大脑创造的意识的问题。 Roger Sperry的分裂大脑实验表明,也许有两个意识中心,所以在那种感觉中,由一个大脑实施的两种思想。 虽然两者都显示出至少一些语言理解,但只有一个(通常由左半球创建)控制语言生产。 因此,许多目前理解大脑和意识关系的方法强调关联和信息流动(参见例如Dehaene 2014)。
意识和理解是人的特征,所以似乎被塞尔接受了一种形而上学,我的意识自我,与我的大脑相同 - 一种心灵 - 脑身份理论的形式。 这种非常具体的形而上学在Searle的原始演示中反映了CR论点的原始介绍,其中他被他描述了强烈的AI作为“适当编程的计算机真正是一个心灵”的声明(Searle 1980)。 这是一个身份索赔,并且具有奇怪的后果。 如果A和B是相同的,则A的任何属性都是B.计算机的属性。计算机是物理对象。 一些计算机重6磅并具有立体声扬声器。 因此,称Searle称为强烈的AI的声称将需要一些思维权重6磅并具有立体声扬声器。 然而,似乎很清楚,而人类可以重150磅; 人类的思想不重要150磅。 这表明既不既不能够思考机构和机器。 这种考虑因素支持思维更为抽象的观点,而且如果是这样的话,那么Searle呼叫强壮AI的一个版本,表示计算机实际上是思想的版本,除了任何思想实验的情况下,都可以在脸上表达地站立。
如果思维不是物理对象这种计算机无法成为一个心灵,并不表明运行AI程序无法通过计算机以外的东西产生自然语言的理解(参见上面的第4.1节。)
功能主义是在Searle CRA之前的二十年内开发的麦观关系的理论。 功能主义是一个替代的身份理论,这些理论是暗示的讨论中的大部分讨论,以及二十世纪中期的主导行为主义。 如果功能主义是正确的,那么电脑无法拥有精神状态,似乎没有内在的原因。 因此,CRA的结论是计算机本质上无能为力,心理状态是对功能主义的重要考虑因素。 Julian Baggini(2009,37)撰写了Searle“在历史上最着名的反例 - 中国房间的论点 - 以及一个知识分子冲击造成了如此大量的职能主义理论造成了很大损害,许多人认为它从未恢复过。”
功能主义者认为心理状态是一种心理状态的作用 - 国家戏剧确定它是什么状态的原因(或“功能”)作用。 函数主义者可能持有这种疼痛,例如,疼痛是通常由身体损坏引起的状态,位于身体形象中,并且是厌恶的。 功能主义者距离行为主义者和身份理论家。 与前者相比,功能主义者认为内部因果流程对于拥有精神状态是重要的。 因此,功能主义者可能会同意拒绝图灵测试的Searle。 与身份理论者相比(谁可能会留下“疼痛与C-纤维射击相同”),功能主义者认为,精神状态可能是各种物理系统(或非物理,如COLE和FOELBER 1984,其中一个心灵变化从材料到非物质实施,神经元神经元)。 因此,虽然身份理论家将识别出某些神经元射击的疼痛,但功能主义者将识别更多抽象和更高水平的疼痛,这是由许多不同类型的底层系统具有可能具有的功能作用。
功能主义者指责身份的特质理论者的体重解文主义者。 然而,功能主义仍然存在争议:功能主义易受上面讨论的中国国家类型异议,并且功能主义者众所周知,解释Qualia难以解释Qualia,这是一个倒置频谱的表观可能性所突出的问题,在那里定性不同的州可能具有相同的功能作用(例如,1978年街区,***1989,Cole 1990)。
计算主义是功能主义的子种类,认为脑过程的重要因果作用是信息处理。 Milkowski 2017指出,在认知科学中,计算方法已经富有成效; 他调查对计算主义的反对意见,并得出结论,大多数是稻草人版本。 然而,Jerry FODOR是一个早期的计算方法的支持者,在FODOR 2005中争论,诸如依赖于依赖于表示的非本地属性的最佳解释的关键心理过程,不能通过大脑中的计算模块来解释。 如果FODOR是对的,但了解语言和解释似乎涉及全球考虑因素,例如语言和非语言背景和心理理论,因此可能抵制计算解释。 如果是这样,我们就在不同的考虑因素的基础上达成了Searle的结论。
Searle的2010年关于CRA的结论声明它表明计算账户无法解释意识。 自1980年以来,在决定解释意识的几十年里,这一直存在相当兴趣,这是跨学科的极其活跃的研究领域。 一种兴趣一直处于神经相关的意识相关。 这是直接涉及Searle的声称,意识是内在生物学而不是计算或信息处理。 然而,目前没有明确的答案,尽管有些关于麻醉的工作表明,当皮质(和皮质 - 秋季)的连接和信息流被中断时,意识丢失(例如,Hudetz 2012,审查文章)。
一般来说,如果确认意识的基础是通过神经网络的信息流量的相对抽象的信息流,那将是功能主义的友好,如果它结果较低,并且更低的生物(或次神经元),它将与Searle的账户友好。
5.4模拟,复制和演化
在讨论CRA时,Searle辩称,模拟和重复之间存在重要区别。 没有人会错误地误认为天气的天气模拟,或者对真实消化的消化的计算机模拟。 Searle总结说,混淆计算机模拟了解了解了解理解的错误是严重的。
面对它,在模拟和真实的东西之间通常存在重要的区别。 但两个问题出现了。 目前尚不清楚,始终可以进行区别。 如果有的话,心是生物学。 是人造心脏模拟的心吗? 或者它们是功能重复的心,来自不同材料的心吗? 步行通常是使用肢体进行的生物现象。 做那些人工肢体走路吗? 或者他们模拟走路吗? 机器人走路吗? 如果需要某种东西的属性是高级属性,即使它在其较低级别属性中不同,也将共享这些属性的任何内容。 Chalmers(1996)在仿真复制时提供了一个原则。 Chalmers表明,对抗Searle和Harnad(1989),x的模拟可以是x,即当作为x的属性是组织不变,只依赖于基础系统的功能组织,而不是依赖于底层系统的属性,而不是在任何其他细节上。
COPELAND(2002)认为,教会图论论文并不需要大脑(或每种机器)可以通过通用图灵机模拟,因为大脑(或其他机器)可能具有原始操作,这些操作不是可以用手执行的简单职员例程。 (一个例子可能是人类大脑可能会显示真正的低级随机性,而计算机被仔细设计不这样做,因此当需要表观随机性时,计算机诉诸伪随机数。)Sprevak 2007提出了相关点。 图灵的1938年普林斯顿论文描述了这种机器(“O-Machines”)。 O-Machines是包括非图定型机可计算的自然数的机器。 如果大脑是这样的机器,那么Sprevak说:“Searle的中国房间论点没有可能成功部署了函数主义假设,即大脑实例化O-Machine ......” (120)。
COPELAND讨论了与脑模拟器回复有关的模拟/复制区别。 他认为,Searle正确指出,一个人无法从x中推断为y,而Y有属性P,因此x有y的任意P的属性P.但是北方宣称Searle自己宣传从传统扩展Cr论据的模拟谬误。ai申请计算主义。 推理的矛盾是逻辑上等效的 - x模拟y,x没有p因此y没有 - 其中p等于:了解中文。 错误的步骤是:CR操作员S模拟一个神经网N,因此不理解中文的情况是不理解中文的情况。 COPELAND还注意到Siegelmann和Sontag(1994)的结果表明,可以通过通用图灵机(特别是连接权重是实数)的一些连接网络的结果。
仿真重复区别存在另一个问题,从进化过程中产生。 Searle希望看到原始的有意性和真正的理解只有某些生物系统,可能是进化的产物。 计算机仅模拟这些属性。 与此同时,在中国房间场景中,Searle保持了一个系统可以表现出与人类行为一样复杂的行为,模拟一个人可以想象的任何程度的智力和语言理解,并模拟任何处理世界的能力,但却不了解一件事。 他还说,这种行为复杂的系统可以用非常普通的材料实现,例如用水和阀门管。
这造成了一个生物问题,超出了其他思想问题的问题,早期批评者对CR争论。 虽然我们可能会假定其他人有思想,但进化没有这样的预设。 基于行为驱动生物进化选择的选择力。 进化可以选择创造性和智能地使用有关环境的信息的能力,只要这在有机体的行为中表现出来。 如果在理解的系统之间的任何情况下没有公开的行为差异,则进化无法选择真实的理解。 因此,在Searle的账户中,真正了解意义的思想与仅使用纯粹的计算过程的生物没有任何优势。 因此,一个意味着暗示理解的模拟可以像真实的那样作为真实的自适应,让我们有一个谜题如何以及为什么系统具有“真正”的理解可以进化。 原始的有意性和真正的理解成为Epiphenomenal:
男人到机器人伴侣:“你无所事事是令人遗憾的。
机器人伴侣:“我知道,我知道。 一位美国哲学家证明了我从来没有愿意的,所以没有任何东西可以做到这一点。 但是,让我们把这种悲伤的想法搁置一边,并恢复我们对布罗德的作品中不可靠的叙述者的讨论,我们拥有的作品,以及您自己的约克郡沼泽之旅。 那里有一些可爱的区域,正如我可以看到我的远程凸轮。 我没有阅读她所有的小说,但熟悉......“。
总结
正如我们已经看到,因为它的外观1980年中国房间参数有引发了讨论跨学科。 尽管讨论了广泛的讨论,但仍然没有达成争论是声音的共识。 在一端,我们有Julian Baggini的(2009)评估,即Searle“也许是历史上最着名的反例 - 中国房间的论点 - 在一个知识分子中造成了如此多的努力造成了许多人争辩的主导职能理论从未恢复过。” 虽然哲学家Daniel Dennett(2013年,第320页)的结论是,中国房间的论点是“显然是一个谬误误导的论点”。 因此,对于这些论点是一个限制人工智能或计算思想的愿望的证据。
同时,在人工智能和自然语言处理中的工作继续。 CRA LED Stevan Harnad和其他人在AI中寻求“符号接地”。 许多人在哲学(Dretske,Fodor,Millikan)上致力于精神内容的自然主义理论。 关于意识性质的猜测在许多学科中仍在继续。 电脑从实验室移动到口袋和手腕。
在Searle建造论证时,个人电脑非常有限的爱好者设备。 在DEC计算机上播放了Weizenbaum的'Eliza'和一些文本'冒险游戏; 这些包括有限的解析剂。 更高级解析语言仅限于Schank等计算机研究人员。 在未来四分之一世纪发生了很大的变化; 数十亿现在使用自然语言来通过他们携带口袋的计算机来询问和命令虚拟代理。 拥有生产AI和自然语言系统的人有中学人士审计索赔吗? 一些制造商将设备链接到“东西互联网”制作适度的索赔:家电制造商LG表示,21世纪的第二十年,带来了主要家电的“交谈体验”。 这可能也可能与交谈不一样。 苹果在描述其名为“Siri”的“虚拟个人助理”申请的能力方面不如LG谨慎谨慎:苹果说,Siri说:“它理解你所说的话。 它知道你的意思。“ IBM很快就声称它更大的“Watson”系统对Siri的语言能力优于语言能力。 2011年,Watson在电视游戏中击败了人类冠军,展示了“危险”,这是一种依赖于语言能力和推理的壮举。 IBM继续声称,沃森是什么区别于它“知道它所知的知识,并且知道它不知道的东西。” 这似乎是对Watson计算机系统的反思自我意识或意识的形式。 因此,现在强烈的AI的要求几乎不会被惩罚,如果有些东西更强,更加旺盛。 与我们所见,许多其他人认为,中国房间的争论一劳永逸地表明,最好的计算机可以模拟人类认知。
虽然分开了三个世纪以来,但莱布尼兹和Searle有类似的直觉,他们认为他们在各自的思想实验中考虑的系统,莱布尼兹的工厂和中国房间。 在这两种情况下,他们考虑一个由相对简单的操作组成的复杂系统,并注意到不可能了解理解或意识可能导致的意识。 这些简单的论点使我们能够突出我们面临的严重问题,以了解理解意义和思想。 中国房间论点提出的许多问题可能无法解决,直到意义的性质,其与语法的关系,以及意识的生物学基础。 关于创造意义,理解和意识的过程仍然存在重大分歧,以及通过思想的实验可以证明可以证明的事情。