中国房间的论点(五)

正如我们所看到的那样,Searle认为,中国房间场景表明,一个人不能单独地从语法获得语义。 在符号逻辑系统中,一种人工语言,规则是用于语法的。 一个语义,如果有的话来。 逻辑学家首先指定基本符号集和一些规则,用于操纵字符串以产生新的字符串(“良好良好的fomulas”)。 这些规则纯粹是句法 - 它们仅仅借助它们的语法或形式应用于符号的字符串。 必须单独提供符号系统的语义,如果有的话。 如果有人希望表明句法操作和语义之间存在有趣的额外关系,例如符号操作保留真理,必须提供一些复杂的元证明来显示这一点。 因此,面对它,语义是完全独立于人造语言的语法,并且一个人不能单独地从语法获取语义。 “自身的正式符号永远无法满足心理内容,因为除定义,除了系统之外的某人给予它们之外,符号没有任何意义(或解释或语义),除了系统之外的某人,”(Searle 1989,45)。

Searle在这段经文中解释的鉴定是重要的。 SEARLE的观点显然是逻辑学家的因果性正式系统。 必须由逻辑学家向这些符号提供语义解释。 当我们从正式系统移动到计算系统时,情况更复杂。 由于许多Searle评论家(例如COLE 1984,Dennett 1987,Boden 1988和Chalmers 1996)已经注意到,运行程序的计算机与“单独语法”不同。 计算机是一个极性复杂的电子因果系统(现在有些具有与人脑中神经元数相当的晶体管计数)。 系统的状态变化是物理的。 可以解释物理状态,例如, 电压,作为句法1和0的,但内在的现实是电子和语法是“衍生的”,别人解释的产物。 这些州在语法上由程序员指定,但是当在运行机中实现时,它们是一个复杂因果系统的电子状态,直接或间接嵌入现实世界中。 这与逻辑学家研究的抽象正式系统完全不同。 Dennett指出,没有“计算机程序自身”(Searle的语言) - 例如 躺在架子上的节目 - 可能会导致任何东西,甚至简单的添加,更不用说精神状态。 程序必须运行。 Chalmers(1996)提供了一种模仿,其中标志着食谱是句法,语法是不足的,蛋糕易碎,因此食谱的实施不足以制作蛋糕。 实施使得所有差异; 一个抽象实体(配方,程序)决定了嵌入在世界上较大的因果关系中的物理系统的因果动力。

Dennett(1987)总结了这个问题:“Searle的视图,然后,这就是:拿一个没有造成心理现象的力量的物质对象(任何材料对象); 您无法将其转换为根本通过编程它的对象,该对象是通过编程 - 重组其状态之间过渡的条件依赖性。“ Dennett的观点是相反的:编程“正是可以给出一些想法”。 但是,Dennett声称它实际上它是“经验上不太可能有害的程序可以在任何有机的人体大脑上运行(325-6)。

计算机不认识到其二进制数据字符串具有某种形式,因此可以将某些句法规则应用于它们,与中国房间内的人不同。 在计算机内部,没有什么可以读取输入数据,或者“知道”是什么符号。 相反,有数百万晶体管改变了状态。 一系列电压会导致要执行的操作。 我们人类可以选择将这些电压解释为二进制数字,电压随着语法操作而变化,但是计算机不会将其操作作为句法或任何其他方式解释。 因此,也许计算机不需要将移动从语法转移到Searle对象的语义; 它需要从复杂的因果关系移动到语义。 此外,或许任何因果系统都被描述为执行句法操作 - 如果我们将光正方形解释为逻辑“0”,则作为逻辑“1”的暗方,那么厨房烤面包机可以被描述为重写逻辑“0”作为逻辑的设备。1“秒。 但是没有关于从语法到早餐的哲学问题。

在20世纪90年代,Searle开始使用与这些相关的考虑因素来争辩说,计算观点不仅仅是错误,但缺乏明显的意义。 计算或语法是“观察者相对”,而不是现实的内在特征:“......您可以将计算解释分配给任何东西”(Searle 2002b,p.17),甚至墙上的涂料中的分子。 由于没有任何内部计算,人们不能具有减少了不观察者相对的精神的科学理论,这是计算的。 “计算仅存在于某些代理商或观察者对某些现象对某些征收计算解释的观察者存在。 这是一个很明显的点。 十年前我应该看到它,但我没有。“ (Searle 2002b,p.17,最初发布1993)。

批评者注意到墙壁不是计算机; 与墙不同,计算机经过由程序(Chalmers 1996,2002,Haugeland 2002)的反向描述的状态转换。 在2002年的纸质中,块地解决了墙是计算机的问题(在回复Searle的费用中,任何映射到正式系统的东西是正式的系统,而思想是完全不同的)。 块否认是否有东西是计算机完全取决于我们的解释。 块注意,Searle忽略了实现系统必须为真的反事实。 Haugeland(2002)使得类似的观点是实现将是一个可靠的过程,可靠地执行业务 - 并且他们必须是正确的因果权力。 街区得出结论,Searle的论点失败了,但他承认他们“成功地锐化了我们对有意性质的理解及其与计算和代表的关系”(78)。

Rey(2002)还解决了Searle的论点,即语法和符号是观察者相对属性,而不是物理的。 从物理学中没有定义语法属性(例如是逻辑“1”)的事实,Searle Infers 然而,雷伊认为,它不遵循它们是观察者相对的。 Rey认为Searle也误解了实现计划的内容。 Rey赞同Chalmers对Putnam的回复:实现不仅仅是一种结构映射,而且涉及因果关系,支持反事实。 “这一点经常被遗忘,它有重复才能重复:定义计算的语法可指定的对象可以且标准地具有语义; 这只是说明书没有参与规范。“ 一个人的国家凭借计算组织及其对世界的因果关系的语义。 Rey得出结论:Searle“根本不考虑功能主义和强壮AI的实质性资源。” (222)合理的详细故事将从中国房间的浅表草图中解散所绘制的负面结论。

John Haugeland(2002)辩称,处理器必须本质地了解它运行的程序中的命令:它根据规范执行它们。 “我们可以使计算机的唯一方法是执行程序的是通过了解其处理器作为响应有意义的程序处方”(385)。 因此,操作符号对系统具有含义。 Haugeland继续在狭窄和广泛的系统之间进行区分。 他认为数据可以在宽系统中具有语义,其中包括传感器产生的外部对象的表示。 在通过时,海洋在其他地方辩称不寻常的索赔,这是真正的情报和语义预先假定“一种致力于一个人如何生活的能力”是非命题 - 即爱(比较Steven Spielberg的2001电影人工智能:AI)。

对于Searle声称语法是观察者相对的,即墙壁中的分子可能被解释为实现WordStar程序(早期文字处理程序),因为“分子运动中存在一些模式,其与Wordstar的正式结构同构。”(SEARLE 1990B,第27页),Haugeland计数器“”复杂的语法令牌“的想法......推出了指定的写作和阅读过程......” 令牌必须系统地生产和可检索。 因此,在某处(例如,某些墙上)没有随机同构或模式,因此语法不是观察者相对。

关于可以从语法中获取语义的问题,William Rapaport多年来有争议的“句法语义”,这是一个看法,其中了解是一种特殊形式的句法结构,其中符号(如中文单词)与概念相关联,自己在句法上表示。 其他人认为我们还不是那里。 AI Futurist(精神机器时代)Ray Kurzweil在2002年的后续书中持有它是红鲱鱼,专注于传统的符号操纵电脑。 Kurzweil同意Searle现有的计算机不懂语言 - 这证明了他们无法参与令人信服的对话。 但这种失败不承担基于不同技术的未来计算机的能力。 Kurzweil声称Searle未能了解未来的机器将使用“大规模平行的混沌紧急方法”。 这一主张似乎类似于Andy Clark等连接人员,以及教堂在1990年科学美国文章中所采取的位置。

除了Haugeland的声称,处理器了解程序指示,Searle的批评者可以同意,计算机不再了解语法,而不是了解语义,虽然像所有因果发动机一样,计算机具有句法描述。 虽然程序员常用于将机器对待句法操作时,但它并不总是如此:有时,有时字符程序员使用只是使机器做某事的切换,例如,在计算机显示屏上使给定像素变为红色,或制作汽车传输换档齿轮。 因此,当他说数字计算机只是“操纵符号的设备”时,尚不清楚塞尔尔是正确的。 计算机是复杂的因果引擎,并且句法描述是有用的,以便构建机器中的因果互连。 AI程序员面临着许多棘手的问题,但是一个人可以抓住他们不必从语法中获取语义。 如果他们要获得语义,他们必须从因果关系中得到它。

两种主要方法已经开发出在因果关系方面解释了意义。 诸如Schank和Rapaport的概念表示方法,以及概念角色语义等的内部主义方法认为,物理系统的状态从同一系统的其他状态从因果关系中获取其语义。 因此,计算机的状态可能代表“kiwi”,因为它连接到“鸟”和“飞行”节点,并且也许也许是原型kiwis的图像。 代表“飞行”属性的状态可能会从否定运营商修改“能够空气传播自我推进”,等等的否定运营商的内容,以形成庞大的连接概念网络,一种心理词典。

由Dennis Stampe开发的外科方式方法,Fred Dretske,Hilary Putnam,Jerry Fodor,Ruth Millikan等,并认为物理系统的状态通过与他们所代表的外部现实的因果关系来获得内容。 因此,粗略地,具有kiwi概念的系统是一个系统,该系统具有它用于表示外部环境中的kiwis存在的状态。 这种思想代表状态将是一个适当因果关系到猕猴桃的存在的状态。 取决于系统,表示状态的Kiwi可以是大脑的状态,或者诸如计算机的电气设备,或者甚至是液压系统的状态。 内部代表状态又可以在确定系统的行为时发挥因果作用。 例如,Rey(1986)沿着Dennis Stampe(1977)和Fodor的心理疗法的工作线上赞同指标语义。 这些语义理论,在适当的因果关系中定位内容或意义与世界答复相适合。 机器人身体中的计算机可能具有可能允许其内部句法状态具有代表其环境中事物状态的语义特性的因果关系。

因此,关于语义如何取决于因果关系,至少有两个有关的理论(和两者的婚姻,如框1986中)。 这两种尝试提供了实施中立的账户:适当组织的因果系统的状态可以具有内容,无论系统都有什么。 在这些理论上,计算机可能有具有含义的状态。 计算机无需了解自己的国家,并知道他们有意义,也不是局外人欣赏各州的意义。 在这些账户中的任何一个上,这取决于(可能复杂的)因果关系,数字计算机是旨在具有刚刚具有如此复杂的因果依赖性的状态的系统。 应该指出的是,Searle没有订阅这些语义的这些理论。 相反,Searle对语言意义的讨论经常以有意的概念为中心。

5.2意向性

意向性是有内容的东西的财产。 在19世纪,心理学家弗兰兹布伦塔诺从中世纪哲学重新推出了这个术语,并认为有意是“心理的标志”。 信仰和欲望是故意的国家:他们有命题内容(一个人从来没有相信或欲望,他们认为P,或者认为P如果主张替代“P”的句子或条款。 SEARLE关于有意性的观点是复杂的; 相关性在于他区分了真正心理状态的原始或内在的意向性,以及语言的衍生性的意义。 书面或口语句只有有意,即派生的意向性,因为它被某人解释而缺乏。 看来,在Searle的观点上,最初的意向性必须至少有意识。 然后,Searle辩称,原始和派生的性格之间的区别适用于计算机。 我们可以将计算机的状态解释为具有内容,但州本身没有原始的有意性。 许多哲学家赞同这种有意的二元化,包括Sayre(1986)甚至福戈(2009年),尽管福尔与Searle的许多差异。

在她1988年的一部分书中,玛格丽特·博登的纪念碑,玛格丽特·博登指出,有意不明朗地理解 - 没有对打开意向性的争论的争论造成太大重量。 此外,在我们理解大脑时,我们专注于信息职能,而不是未指明的大脑因果权力:“......从心理学的角度来看,它不是生物化学,这是重要的,但信息轴承职能接地。” (241)Searle认为有意作为大脑的因果力,通过生物过程独特地生产。 他说,戴尔·雅加1989年争论减少意向性 - 意向意向性,是一个“不可确定的不可减少的原始概念” 然而,大多数AI Sympathers都看到有意,而是与信息的限制,非生物国家可以携带信息,也可以携带脑状态。 因此,许多响应者对Searle表示,他展示了欺骗性的物质,在举行这种大脑的情况下,但是由具有可比信息处理能力的硅制成的系统也不能,即使原则上也不能。 这个问题的两边都出现了,如J. Maloney的1987年“正确的东西”,捍卫Searle和R. Sharvy的1983年批评,“这不是肉,这是议案”。 AI支持者如Kurzweil(1999年,参见Richards 2002)继续认为,AI系统可能会成为理解,情报,意识和意向性,并将超越这些领域的人类能力。

Searle的其他批评者的立场比Boden更严重地对抗,但否认他在原始和衍生的意志之间的双重区别。 Dennett(例如,1987年)辩称,所有的意向性都是衍生的,因为对动物,其他人,甚至我们自己 - 纯粹有助性并允许我们预测行为,但它们不是对内在属性的描述。 正如我们所看到的,Dennett担心中国房间的速度缓慢,但他争辩说,一旦一个系统致力于速度,它就有所需的一切,以衍生的意志性 - 依德纳特的唯一善意的唯一善意。 机器可以是一个有意的系统,因为有意的解释在预测机器的行为方面的工作。 Dennett还表明,Searle以意识的意识与意识融为一体。 在他的语法 - 语义论据中,“Searle显然将关于语义的有可能性的索赔与关于从语法的语法意识的有可能性的声明”(336)。 意识强调迫使我们从第一人称观点中思考事物,但如果我们想了解精神,那么Dennett 2017继续按下这是一个基本错误。

我们也可能担心Searle混淆了意义和解释,并且Searle的原始或潜在的有意性只是二阶故意,是一个有意对象代表或手段的表示。 Dretske和其他人认为有意地作为信息为基础。 世界上一个国家,包括计算机中的国家,可能会在世界上携带有关其他国家的信息,而这种信息讨论是各国的思想独立特征。 因此,持有意识意义的意义归属是一个错误。

其他人指出,Searle的讨论已经显示出从故意和理解问题的时间转移到意识问题。 Searle与意识意识联系起来,在举行意外国家至少可能意识到。 在1996年的1996年的书中,大卫查尔姆斯注意到,虽然Searle最初引导他的争论对机器的意义,但从后来的着作明显,真正的问题是意识,Searle持有的是有必要的有必要条件的意识。 它是缺乏数字电脑的意识。 Chalmers使用思想实验来争辩说,一个系统具有一些基本的精神财产(例如拥有Qualia),如果有可能想象一个系统逐渐转变为另一个系统,则逐渐地(以数字方式替换神经元电路),或者一下子,在肉体和硅之间来回切换(参见上文第4.3节中的术语介绍)。

有关意向性归属的第二次策略是由批评者所采取的,他们实际上争辩说,有意性是与世界正确的物理系统状态的内在特征,这些物理系统与世界以正确的方式与世界有关,独立于解释(参见前面的语法和语义部分)。 例如,图灵的照片具有意向性:它具有关于某些东西的内容,即图灵。 这种形式的意向性与解释无关 - 有人可以看一下图灵的照片,认为这是别人的照片。 同样的情况可能是一个由机器人产生的句子,例如“我现在在时钟室里”。 这句话是关于一个特定机器人,凭借句子的产生与机器人的位置之间的因果关系。 当机器人生成那句话时,它意味着机器人在它调用“时钟室”的房间里。 但有人可能会解释并分配错误的意向性(例如,他们可能认为它是关于其他机器人而不是其它是最重要的)。 在这种思考方式上,有意的是一回事,并解释是别的,即解释是关于某事物的理论或假设。 句子或照片的意思是它与世界的关系; 对句子的解释是二阶意向性,即它是关于句子及其有意性的。

Fodor的语义外国主义受到Fred Dretske的影响,但他们在计算机的语义方面得到了不同的结论。 在一段时间内,Dretske开发了一个历史叙述的意义或精神内容,这些内容将排除归因于大多数机器的信仰和理解。 Dretske(1985)同意加入机器的Searle实际上添加; 我们使用机器进行添加。 Dretske强调自然选择和学习在生产具有真正内容的国家的关键作用。 人类建造的系统是最好的,如沼泽(沼泽地中的雷击,并且偶然碰到一些人的分子副本的分子,说,你) - 他们似乎有意物或精神状态,但没有,因为这些国家要求这样正确的历史。 AI州通常是真正精神状态的假冒; 像假币一样,它们可能看起来完全相同但缺乏正确的血统。 但Dretske的信仰陈述似乎使其不同于有意识地对信仰或故意国家的意识(如果需要更高的秩序思考),因此显然允许通过学习获得正确历史的人工系统来归因。

Howard Gardiner赞同Zenon Pylyshyn对Searle对大脑和故意关系的看法,假设有意识的是一种“由大脑分泌的东西”,而Pylyshyn自己的反思想实验神经元由集成电路工作人员逐一取代(参见COLE和FOELBER(1984)和Chalmers(1996),用于探索神经元更换场景)。 Gardiner认为,Searle欠我们的精确陈述比迄今为止所赋予的更精确的意向性,直到那么它是一个开放的问题,无论AI是否可以产生它,或者是否超出其范围。 加德纳结束了塞尔和他的批评者之间的争议并不是科学,而是(准罪?)宗教。

(本章完)

相关推荐