信息(三)

17 世纪下半叶,帕斯卡 (1623–1662)、费马 (1601 或 1606–1665) 和克里斯蒂安·惠更斯 (1629–1695) 等研究人员发展了正式的概率理论。惠更斯的著作《De ratiociniis in ludo aleae》被约翰·阿巴斯诺特 (1692) 翻译成英文。对于这些作者来说,世界本质上是机械的,因此是确定性的,概率是人类知识的一种品质,由其不完美性造成:

骰子具有如此确定的力和方向,不可能不落在如此确定的一侧,只是我不知道使它落在如此确定的一侧的力和方向,因此我称之为机会,这只不过是艺术的缺失;……(约翰·阿巴斯诺特《论机会法则》(1692),序言)

本文可能影响了休谟,是第一个与知识理论嫁给正式概率理论的人:

虽然世界上没有机会这样的事情; 我们对任何事件的真正原因的无知对理解具有相同的影响,并引入了类似的信念或意见。 (...)如果用四面有一个数字或斑点的斑点标记染料,并且在两个剩余侧面上的另一个数字或斑点数量,那将是更可能的,前者比后者升高; 虽然,如果它有一千侧面以相同的方式标记,并且只有一边不同,概率将要高得多,以及我们对事件更稳定和安全的信念或期望。 这种思想或推理的过程似乎是微不足道的; 但对于那些更狭隘的人来说,它可能会为好奇的猜测提供资金。 (休谟1748:第六节,“概率”1)

在这里,关于这种信念的未来的知识在概率方面测量,这在其转弯时被解释了世界上的确定性系统的配置。 现代信息理论的基本构建块已到位。 通过这种新的知识概念,经验主义者为后来发展的热力学发展为降低次级热量的次要质量与身体的主要质量的基础。

同时,“信息”一词似乎在经验主义者的着作中失去了大部分技术意义,因此这种新的发展没有被指定为“信息”概念的新解释。 洛克有时使用我们的感官“告知”我们关于世界的短语,偶尔使用“信息”这个词。

对于哪些信息,知识,携带这种命题,viz。 “铅是一个金属”给一个了解复杂的想法的人名称铅代表? (洛克1689:BK IV,CH 8,第4段)

当他观察时,休谟似乎以相同的休闲方式使用信息:

两个物体虽然彼此完全类似,但甚至在不同时间出现在同一个地方,可能是数值不同的:作为一个物体产生另一个物体的力量,从不从他们的想法中可以发现,因此我们可以从经验中获得信息,而不是来自任何抽象的推理或反思。 (休谟1739:第III部分,第1节)

经验主义者方法没有问题。 最大的问题是所有知识都变得概率和后验。 Immanuel Kant(1724-1804)是第一个指出人类思想的掌握空间的概念,时间和因果关系的首选之一,这本身就不会被理解,因为仅仅是“想法”组合的结果。 更重要的是,这些直觉使我们能够确定性地制定科学的洞察:即,欧几里德空间中三角形的角度的总和是180度的事实。 在实证框架中无法解释此问题。 如果通过想法的组合创建知识,那么必须在人类思想中先验综合思想。 根据康德的说法,这意味着人类的思想可以评估自己的能力来制定科学判断。 在他的Kriitik der Reinen Vernunft(1781)康德森师开发了超越哲学,作为对人类知识必要条件的调查。 虽然康德的超越计划没有直接贡献信息概念的发展,但他确实影响了在第十九世纪和二十世纪对这个主题相关的数学和知识基础的研究:例如,弗雷格的工作,Husserl,Russell,Brouwer,L. Wittgenstein,Gödel,卡内帕,波普尔和奎因。

2.4历史发展“信息”一词的含义

术语“信息”的历史与西方哲学中的认识论和本体论的核心问题的研究复杂化。 在古典和中世纪文本中作为一个技术术语之后,“信息”一词几乎消失在现代哲学中的哲学话语,但在口语演讲中获得了普及。 逐步获得抽象质量名词的状态,这是与古典过程导向的含义正交的含义。 在这种形式中,它被几个研究人员(Fisher 1925; Shannon 1948)在二十世纪提出了衡量“信息”的正式方法。 这是转弯,导致对信息概念的哲学兴趣的复兴。 这种复杂的历史似乎是制定满足所有直觉的信息统一概念的定义的难度之一。 “信息”一词的至少三个不同含义历史相关:

“信息”作为被告知的过程。

这是一个最古老的意思,其中一个在西罗(106-43 bce)和奥古斯丁(354-430 ce)等作者中发现,但它在现代话语中丢失,尽管信息与过程的协会(即计算,流动或流动或发送消息)仍然存在。 在古典哲学中,人们可以说,当我识别出一匹马时,那么在我的脑海里种植了马的“形式”。 这个过程是我的本质的“信息”。 教学行为也可以称为学生的“信息”。 在同一个感觉中,人们可以说雕塑家通过“通知”一块大理石创造雕塑。 雕塑家的任务是雕像的“信息”(Capurro&Hjørland2003)。 西方欧洲话语中的这种进程为导向的意义幸存下来,即使在十八世纪,罗宾逊克鲁斯·克鲁索也可以将他的仆人周五的教育称为他的“信息”(Defoe 1719:261)。 它也被伯克利在这个意义上使用:“我喜欢妨碍我的所有科目,特别是那些最重要的主题”(Alciphron对话1,第5节第6/10节,见伯克利1732)。

“信息”作为代理人的状态,

即,作为被告知的过程的结果。 如果一个人教导了毕达哥拉斯的定理,那么,在这个过程完成后,学生可以说“有关于毕达哥拉斯定理的信息”。 在这个意义上,术语“信息”是对动词(Informare> Informatio)尽可能多的嫌疑人形式的结果,以及哲学中的许多其他技术术语(物质,意识,主题,对象)。 这种术语形成对于它产生的概念性困难是臭名昭着的。 一个人可以从我有意识到的事实中“拥有”意识的事实? 一个事实可以从我被告知的事实中获得的事实吗? 这种现代证实的含义的转变似乎是逐渐逐渐的,似乎至少在西欧一般于十五世纪中叶。 在文艺复兴时期,学者可以被称为“一个信息的人”,与我们现在现在可以说有人接受教育(Adriaans&Van Benthem 2008b; Capurro&Hjørland2003)。 在简奥斯汀的“艾玛”中可以阅读:“先生。 我想,马丁,不是一个超越自己业务线的信息。 他没有读过“(奥斯汀1815:21)。

“信息”作为通知的性格,

即,作为对象通知代理人的能力。 当教导我的行为Pythagoras'定理时,让我有关于这个定理的信息,假设真理解释的文本实际上“包含”这个信息是自然的。 当我读它时,文本有能力通知我。 在同样的意义上,当我收到教师的信息时,我能够将此信息传送给另一个学生。 因此,信息成为可以存储和测量的东西。 作为一个抽象的大众名词的最后一个信息概念在现代社会中聚集了广泛的验收,并在十九世纪找到了其明确的形式,允许夏洛克家庭进行以下观察:“......朋友在他手中举行了信息,他的手在他手中的价值知道”(“贵族单身汉的冒险”,柯南Doyle 1892)。 与“形式”和“信息”等技术哲学概念的关联从一般意识中消失了,尽管信息和流程之间的关联仍然存在,但是仍然存在的信息和流程之间的关联。

3. 现代信息理论的构建模块

回想起来,自 17 世纪以来,许多与最佳代码系统、理想语言以及计算和处理语言之间的关联有关的概念一直是哲学反思中反复出现的主题。

3.1 语言

主教约翰·威尔金斯 (John Wilkins) 提出了最详尽的通用“哲学”语言提案之一(Maat 2004):《关于真实性格和哲学语言的论文》(1668 年)。威尔金斯的项目包括一个复杂的符号系统,据说这些符号与现实中明确的概念有关。这些提案使哲学家们对语言和思想之间的深层联系很敏感。经验主义方法论使得人们能够将语言的发展设想为一种传统符号系统,即人类思维中思想之间的关联。目前被称为符号基础问题(任意符号如何获得其主体间意义)的问题,是十八世纪语言起源问题中争论最激烈的问题之一。维科、孔狄亚克、卢梭、狄德罗、赫尔德和哈曼等思想家都对此作出了贡献。核心问题是语言是上帝先天赋予的,还是人类自己构造并发明的。1769 年皇家普鲁士科学院发起的竞赛就是一个典型例子:

假设人类放弃他们的自然系,他们是否是语言的发明者?而这些年来,他们又如何将新事物与这种发明联系起来?

假设人类放弃了自然能力,他们是否能够发明语言?他们将通过什么方式发明语言?[1]

这场争论持续了一个多世纪,没有任何结论。1866 年,巴黎语言学会 (Société de Linguistique de Paris) 将这一问题从其舞台上驱逐出去。[2]

在哲学上更相关的是莱布尼茨 (1646-1716) 关于所谓“普遍性特征”的研究:一种通用逻辑演算的概念,它是科学推理的完美载体。莱布尼茨哲学的一个核心前提是,这种完美的科学语言在原则上是可能的,因为世界是上帝创造的完美本质 (ratio essendi = ration cognoscendi,存在的起源是认识的起源)。沃尔夫 (1679–1754) 拒绝了这一原则,他提出了更具启发式导向的组合特征 (van Peursen 1987)。这些想法不得不等待布尔 (1854, 《思想规律的研究》)、弗雷格 (1879, 《概念文集》)、皮尔士 (1886 年已经提出电路可用于处理逻辑运算) 以及怀特海和罗素 (1910–1913, 《数学原理》) 等思想家找到更富有成效的处理方法。

3.2 最优代码

自从书籍印刷术发明以来,人们就知道一种语言中字母频率会有所不同。打印机排版英文文本时需要的“e”和“t”比“x”或“q”多得多。自 17 世纪以来,这些知识被广泛用于解密密码(Kahn 1967;Singh 1999)。1844 年,塞缪尔·莫尔斯的助手阿尔弗雷德·维尔确定了新泽西州莫里斯敦一家当地报纸上使用字母的频率,并利用这些字母优化了莫尔斯电码。因此,最优代码理论的核心早在香农发展其数学基础之前就已经确立了(Shannon 1948;Shannon & Weaver 1949)。查尔斯·巴贝奇建造计算机的努力(1821 年的差分机和 1834-1871 年的分析机)和艾达·洛夫莱斯(1815-1852)为分析机设计被认为是第一种编程语言的尝试,在历史上很重要,但在哲学上却不那么重要。

3.3 数字

表示数字的最简单方法是通过一元系统。在这里,数字表示的长度等于数字本身的大小,例如,数字“十”表示为“\\\\\\\\\\”。古典罗马数字系统是一种改进,因为它包含表示不同数量级的不同符号(一 = I、十 = X、百 = C、千 = M)。该系统存在巨大缺陷,因为原则上需要无限数量的符号来编码自然数,因此相同的数学运算(加、乘等)在不同的数量级下具有不同的形式。大约公元 500 年,数字零在印度被发明。使用零作为占位符,我们可以用有限的一组符号编码无限数量的数字(一 = I、十 = 10、百 = 100、千 = 1000 等)。从现代角度来看,只要我们有 0 作为占位符和有限数量的其他符号,就可以实现无限数量的位置系统。我们通常的十进制数系统有十个数字“0、1、2、3、4、5、6、7、8、9”,并将二百五十五表示为“255”。在二进制数系统中,我们只有符号“0”和“1”。这里二百五十五表示为“11111111”。在具有 16 个符号(0、1、2、3、4、5、6、7、8、9、a、b、c、d、e、f)的十六进制系统中,同一个数字可以写为“ff”。请注意,这些表示的长度差别很大。使用这种表示法,无论我们处理的数字的数量级如何,数学运算都可以标准化,也就是说,统一的数学函数算法处理(加、减、乘、除等)的可能性与这种位置系统有关。

位置数字系统的概念是由波斯数学家 al-Khwarizmi (约公元 780 年 - 约 850 年) 带到欧洲的。他关于数字的主要著作 (约公元 820 年) 在 12 世纪被翻译成拉丁语 Liber Algebrae et Almucabola,这给了我们“代数”一词。我们的“算法”一词源自 Algoritmi,这是他名字的拉丁语形式。位置数字系统简化了商业和科学计算。

1544 年,Michael Stifel 在 Arithmetica integra (1544) 中引入了数字指数的概念。因此,8 可以写成 23 ,而 25 可以写成 52。指数的概念立即让人联想到对数的概念,即其反函数: logbba=a。Stifel 将算术序列:

−3,−2,−1,0,1,2,3

其中项 1 的差为 1,与几何序列:

18,14,12,1,2,4,8

其中项的比率为 2。指数符号使他能够将第二个表的值重写为:

2−3,2−2,2−1,20,21,22,23

将两个表合并在一起。这可以说是第一个对数表。John Napier (1550–1617) 在其主要著作 (Napier 1614) 中提出了更明确、更实用的对数理论。他创造了对数这个术语(logos + arithmic:数字的比率)。从算术级数和几何级数的匹配中可以清楚地看出,对数将乘积简化为和:

logb(xy)=logb(x)+logb(y)

它们还将除法简化为差:

logb(x/y)=logb(x)−logb(y)

并将幂简化为乘积:

logb(xp)=plogb(x)

布里格斯 (1624) 发表对数表后,这种促进复杂计算的新技术迅速流行起来。

3.4 物理学

伽利略 (1623) 已经提出,对热和压力等现象的分析可以归结为对基本粒子运动的研究。在经验方法论中,这可以设想为如何将物体或气体的次要热品质的感官体验归结为粒子运动的问题。伯努利(1738 年出版的《流体力学》)首次发展了气体动力学理论,其中宏观可观察到的现象用遵循牛顿力学定律的粒子系统微观状态来描述,但要提出适当的数学处理方法需要相当大的智力努力。克劳修斯 (1850) 提出了两次碰撞之间粒子平均自由程的概念,迈出了决定性的一步。这为麦克斯韦的统计处理开辟了道路,麦克斯韦于 1857 年提出了他的分布,这是物理学中第一个统计定律。将所有概念联系在一起的权威公式(虽然实际公式是普朗克的,但这个公式被刻在他的墓碑上)是由玻尔兹曼开发的:

S=klogW

它用与系统可观测的宏观状态一致的可能微观状态数 W 的对数来描述系统的熵 S,其中 k 是众所周知的玻尔兹曼常数。这个公式非常简单,对于现代科学的价值怎么估计也不为过。从信息论的角度来看,“logW”这个表达式可以有多种解释:

作为系统中的熵量。

作为计算与宏观观察一致的所有可能微观状态所需的数字的长度。

作为最佳指数的长度,我们需要确定系统当前特定的未知微观状态,即它是我们“缺乏信息”的衡量标准。

作为系统任何典型特定微观状态与宏观观察一致的概率的度量。

因此,它将对数的加性与熵、概率、典型性和信息的广泛性质联系起来,这是使用数学分析自然的基本步骤。后来,吉布斯(1906)改进了公式:

S=−∑ipilnpi,

其中 pi 是系统处于第 i 个微观状态的概率。香农(1948;Shannon & Weaver 1949)采用了这个公式来描述信息系统的通信熵。尽管熵和信息的数学处理之间存在密切的联系,但对这一事实的确切解释一直存在争议(Harremoës & Topsøe 2008;Bais & Farmer 2008)。

4. 信息哲学的发展

现代信息理论出现在二十世纪中叶的特定思想氛围中,当时科学和学术哲学的某些部分之间的距离相当大。一些哲学家表现出一种特定的反科学态度:海德格尔,《科学不科学》。另一方面,维也纳学派的哲学家公开诋毁传统哲学,认为它处理的是虚幻的问题(Carnap 1928)。逻辑实证主义的研究计划是基于经验主义和逻辑学最新进展的结合而对哲学进行的严格重构。也许正是由于这种思想氛围,信息理论的早期重要发展与主流哲学反思是隔离的。一个里程碑是德雷茨克在 80 年代早期的工作(Dretske 1981)。自本世纪初以来,人们对信息哲学的兴趣大大增加,这主要是受到 Luciano Floridi 关于语义信息的工作的影响。此外,量子计算和相关量子信息概念的快速理论发展也对哲学反思产生了影响。

(本章完)

相关推荐