信息(一)
信息哲学从历史和系统的角度对信息概念进行哲学分析。随着早期现代哲学中经验主义知识理论的出现、二十世纪各种数学信息理论的发展以及信息技术的兴起,“信息”的概念在科学和社会中占据了中心地位。这种兴趣还导致了一个独立的哲学分支的出现,该分支分析了信息的所有形式(Adriaans & van Benthem 2008a,b;Lenski 2010;Floridi 2002、2011、2019)。信息已成为科学和人文学科的核心范畴,对信息的思考影响着从逻辑学(Dretske 1981;van Benthem & van Rooij 2003;van Benthem 2006,参见“逻辑和信息”条目)、认识论(Simondon 1989)、伦理学(Floridi 1999)、美学(Schmidhuber 1997a;Adriaans 2008)到本体论(Zuse 1969;Wheeler 1990;Schmidhuber 1997b;Wolfram 2002;Hutter 2010)等一系列哲学学科。
信息哲学是哲学的一个分支学科,与逻辑哲学和数学哲学密切相关。语义信息哲学(Floridi 2011、D’Alfonso 2012、Adams & de Moraes,2016)同样是信息哲学的一个分支学科(参见信息语义概念条目中的信息图)。从这个角度来看,信息哲学对最一般层面的主题研究感兴趣:数据、格式良好的数据、环境数据等。语义信息哲学增加了意义和真实性的维度,Long(2014)、Lundgren(2019)。可以在语义信息哲学的框架内解释信息的定量理论(有关深入讨论,请参阅第 6.5 节)。
一些作者提出了一种或多或少连贯的信息哲学,尝试从新的视角重新思考哲学:例如量子物理学(Mugur-Schächter 2002)、逻辑(Brenner 2008)、通信和信息系统(Capurro & Holgate 2011)和元哲学(Wu 2010、2016)。Luciano Floridi 关于语义信息的工作(Floridi 2011、2013、2014、2019;D’Alfonso 2012;Adams & de Moraes 2016,参见信息的语义概念条目)值得特别提及。Floridi 在许多论文和书籍中发展了一种系统连贯的先验信息哲学,这使他成为大陆传统中罕见的现代系统构建者之一。他的项目的基石是将真实性纳入信息的定义中。这种选择起到了划界标准的作用:信息和计算的定量概念更技术性,不涉及真实性,因此不属于语义信息哲学的核心。由此产生的信息概念也更接近于我们在日常生活中使用的天真概念。与此相反的是 Adriaans & van Benthem 2008a,b 的方法。在“信息就是信息所做的”的口号下,他们对这个主题采取了更务实、更少本质主义的方法。分析信息和计算理论技术发展的哲学后果是他们研究计划的核心。从这个角度来看,信息哲学是一门技术学科,它深深扎根于哲学史,对方法论、认识论和伦理学等各种学科都有影响。人们可能会将植根于逻辑(Van Benthem)或复杂性理论(Vitanyi)研究传统的信息思维学派与 Bostrom 和 Floridi 等研究人员所代表的另一种方法区分开来。
无论人们对信息哲学的本质作何解读,它似乎都意味着一项雄心勃勃的研究计划,其中包括许多子项目,从在现代信息理论背景下对哲学史的重新解读,到对信息在科学、人文和整个社会中的作用的深入分析。
1. 信息概念
1.1 口语中的信息
1.2 信息概念的技术定义
2. 术语和信息概念的历史
2.1 古典哲学
2.2 中世纪哲学
2.3 现代哲学
2.4 “信息”一词含义的历史发展
3. 现代信息理论的基石
3.1 语言
3.2 最优代码
3.3 数字
3.4 物理学
4. 信息哲学的发展
4.1 波普尔:信息作为可证伪程度
4.2 香农:以概率定义信息
4.3 所罗门诺夫、柯尔莫哥洛夫、柴廷:信息作为程序的长度
5. 系统性考虑
5.1 信息哲学作为信息哲学的延伸数学
5.1.1 信息作为一种自然现象
5.1.2 符号操作和广泛性:集合、多重集和字符串
5.1.3 集合和数字
5.1.4 用数字测量信息
5.1.5 用数字集测量信息和概率
5.1.6 统一的观点
5.1.7 信息处理和信息流
5.1.8 信息、素数和因数
5.1.9 算术的不完备性
5.2 信息和符号计算
5.2.1 图灵机
5.2.2 普遍性和不变性
5.3 量子信息及其他
6. 异常、悖论和问题
6.1 系统搜索的悖论
6.2 有限集中的有效搜索
6.3 P 与 NP 问题,描述性复杂性与时间复杂性
6.4 模型选择和数据压缩
6.5 确定性和热力学
6.6 逻辑和语义信息
6.7 含义和计算
7. 结论
参考书目
学术工具
其他互联网资源
相关条目
1. 信息概念
1.1 口语中的信息
口语中的“信息”一词目前主要用作抽象的名词,用于表示以任何媒介存储、发送、接收或操作的任何数量的数据、代码或文本。“信息”一词的不精确性和普遍实用性是相辅相成的。在我们的社会中,我们通过越来越复杂的仪器和装置(望远镜、回旋加速器)探索现实,并通过更先进的媒体(报纸、广播、电视、短信、互联网)进行交流,因此,用一个抽象的物质名词来表示由这些仪器创造并“流经”这些媒体的“东西”是很有用的。从历史上看,这个一般含义出现得相当晚,似乎与大众媒体和情报机构的兴起有关(Devlin & Rosenberg 2008;Adriaans & van Benthem 2008b)。
在现在的口语中,信息一词的使用方式多种多样,定义不明确,甚至经常相互冲突。例如,大多数人会认为以下推论表面上是有效的:
如果我得到 p 的信息,那么我知道 p。
同样的人们可能不会对“特勤局有时会散布虚假信息”或“事故目击者提供的信息模糊且相互矛盾”这句话有任何异议。第一个陈述意味着信息必然是真实的,而其他陈述则允许信息是虚假的、相互矛盾的和模糊的。在日常交流中,这些不一致似乎不会造成很大的麻烦,而且一般来说,从实用背景中可以清楚地知道指定了哪种类型的信息。这些例子足以说明,作为英语使用者,我们直觉的参考对于发展严格的信息哲学理论几乎没有帮助。在日常交流中,似乎没有实用压力要求对信息概念进行更精确的定义。
1.2 信息概念的技术定义
在二十世纪,提出了各种形式化信息概念的提案。提出的概念围绕两个核心属性:
信息是广泛的。核心概念是可加性:两个信息量相同的独立数据集的组合所包含的信息量是单个数据集的两倍。取对数的数学运算恰好体现了这种广泛性的概念,因为它将乘法简化为加法:loga×b=loga+logb。
当我们计数和测量物体和结构时,广度的概念自然而然地出现在我们与周围世界的互动中。集合、多重集和序列等更抽象的数学实体的基本概念是在历史早期根据符号操作的结构规则发展起来的(Schmandt-Besserat 1992)。在 19 世纪和 20 世纪初的热力学研究中,广度以对数函数的形式化形式出现。物理学中定义的不同熵概念反映在各种信息概念提案中。我们提到与哈特利函数(Hartley 1928)密切相关的玻尔兹曼熵(Boltzmann, 1866)、形式上等同于香农熵的吉布斯熵(Gibbs 1906)以及各种概括,如 Tsallis 熵(Tsallis 1988)和 Rényi 熵(Rényi 1961)。当用更高级的多维数字系统(复数、四元数、八元数)编码时,广泛性的概念概括为更微妙的可加性概念,这些概念不符合我们的日常直觉。然而,它们在基于量子物理的信息论的最新发展中发挥着重要作用(Von Neumann 1932;Redei & Stöltzner 2001,参见量子纠缠和信息条目)。
信息减少了不确定性。我们获得的信息量随着不确定性的减少而线性增长,直到我们收到所有可能的信息并且不确定性为零。不确定性和信息之间的关系可能是由经验主义者(Locke 1689;Hume 1748)首次提出的。休谟明确指出,从更大的可能性中进行选择可以提供更多信息。这一观察在 Hartley(1928)提出的函数中得到了规范的数学公式,该函数定义了从有限集合中选择一个元素时获得的信息量。唯一将这两个关于广泛性和概率的直觉统一起来的数学函数是根据概率的负对数定义信息的函数:I(A)=−logP(A)(Shannon 1948;Shannon & Weaver 1949,Rényi 1961)。
我们简要概述了一些相关定义:
信息的定量理论
奈奎斯特函数:奈奎斯特 (1924) 可能是第一个用对数函数来表达在电报系统的特定线速下可以传输的“情报”量的人:W=klogm,其中 W 是传输速度,K 是常数,m 是可以选择的不同电压水平。奈奎斯特使用情报一词作为他的衡量标准,这一事实说明了 20 世纪初术语的流动性。
费舍尔信息:可观测随机变量 X 携带的有关未知参数 θ 的信息量,X 的概率取决于该参数 (Fisher 1925)。
哈特利函数:(Hartley 1928, Rényi 1961, Vigo 2012)。在均匀分布下,从有限集 S 中选择一个元素 e 时,我们获得的信息量是该集合基数的对数:I(e∣S)=loga|S|。
香农信息:离散随机变量 X 的熵 H 是与 X 的值相关的不确定性量的度量:I(A)=−logP(A) (Shannon 1948;Shannon & Weaver 1949)。香农信息是信息最著名的定量定义,但它是一个相当薄弱的概念,没有捕捉到无序的概念,而无序的概念在直觉上对于熵的热力学概念至关重要:字符串 0000011111 包含的香农信息与字符串 1001011100 一样多,因为它有相同数量的 1 和 0。
算法复杂度(又称柯尔莫哥洛夫复杂度):二进制字符串 x 中的信息量是在参考通用图灵机 U 上生成 x 的最短程序 p 的长度 (Turing 1937; Solomonoff 1960, 1964a,b, 1997; 1965; Chaitin 1969, 1987)。算法复杂度在概念上比香农信息量更强大:它确实认识到字符串 1100100100001111110110101010001000100001 包含的信息很少(因为它给出了数字 π 的前 40 位),而香农理论认为这个字符串包含几乎最大信息量。这种能力是有代价的。柯尔莫哥洛夫复杂度量化了所有比数据集更短的可能的计算机程序。我们无法在有限的时间内运行所有这些程序,因为其中很多程序永远不会终止。这意味着 Kolmogorov 复杂度是不可计算的。我们所做的测量都取决于我们对参考通用图灵机的选择。算法复杂度作为信息度量的性质由图灵机作为计算模型的通用性和所谓的不变性定理保证:在极限情况下,两个不同的通用图灵机分配给数据集的复杂度仅相差一个常数。因此,算法复杂度是一种渐近度量,它并不能告诉我们太多有关小型有限数据集的信息。它对日常研究的实用价值有限,尽管它从哲学角度和作为数学工具具有相关性。
物理学中的信息
兰道尔原理:擦除一位信息所需的最小能量与系统运行的温度成正比(Landauer 1961, 1991)。
量子信息:量子比特是经典比特的泛化,由双态量子力学系统中的量子态描述,形式上等同于复数上的二维向量空间(Von Neumann 1932;Redei & Stöltzner 2001)。
信息的定性理论
语义信息:Bar-Hillel 和 Carnap 发展了语义信息理论(1953 年)。Floridi(2002、2003、2011)将语义信息定义为格式正确、有意义且真实的数据(Long 2014;Lundgren 2019)。基于熵的正式信息定义(Fisher、Shannon、Quantum、Kolmogorov)在更一般的层面上起作用,并不一定能测量有意义的真实数据集中的信息,尽管有人可能会认为,为了可测量,数据必须是格式良好的(有关讨论,请参阅 6.6 节“逻辑和语义信息”)。语义信息与我们日常对信息的朴素概念相近,即信息是通过关于世界的真实陈述传达的东西。
信息作为代理的状态: 对知识和信仰等概念的正式逻辑处理是由 Hintikka (1962, 1973) 发起的。Dretske (1981) 和 van Benthem & van Rooij (2003) 在信息论的背景下研究了这些概念,参见 van Rooij (2003) 关于问题和答案的研究,或 Parikh & Ramanujam (2003) 关于一般消息传递的研究。 Dunn 似乎也想到了这一概念,他将信息定义为“当人们去掉信念、理由和真相时,知识所剩无几” (Dunn 2001: 423; 2008)。Vigo 提出了一种基于代理概念获取复杂性的结构敏感信息理论 (Vigo 2011, 2012)。
概述显示了一个正在发展的研究领域,其中理由的背景尚未完全与发现的背景分开。许多提案具有工程风格,并依赖于叙述(发送消息、从集合中选择元素、图灵机作为人类计算机的抽象模型),这些叙述不能充分反映底层概念的基本性质。其他提案在哲学上有更深的根源,但其表述方式使得嵌入科学研究存在问题。以三个有影响力的提议及其对信息的定义(香农概率、柯尔莫哥洛夫计算和弗洛里迪真值)为例,你会发现它们几乎没有任何共同之处。有些甚至是相互冲突的(真值与概率、确定性计算与概率)。在热力学和信息论的背景下也存在类似的情况:它们使用相同的公式来描述根本不同的现象(气体中粒子的分布速度与消息集的概率分布)。
直到最近,人们普遍怀疑这些理论能否统一(Adriaans & van Benthem 2008a),但经过二十年的研究,统一的前景似乎更好。各种定量信息概念与不同的叙述(计数、接收消息、收集信息、计算)相关联,但这些叙述都植根于相同的基本数学框架。信息哲学中的许多问题都围绕着数学哲学中的相关问题。人们研究了各种形式模型之间的转换和简化(Cover & Thomas 2006;Grünwald & Vitányi 2008;Bais & Farmer 2008)。出现的情况似乎与能量概念并无二致:关于能量有各种形式子理论(动能、势能、电能、化学能、核能),它们之间有明确的转换。除此之外,“能量”一词在口语中的使用并不严格。20 世纪出现一种用于定量测量信息的连贯理论与计算理论的发展密切相关。在此背景下,核心概念是普适性、图灵等价性和不变性:由于图灵系统的概念定义了通用可编程计算机的概念,因此所有通用计算模型似乎都具有相同的功能。这意味着,所有可以为通用计算模型(递归函数、图灵机、Lambda 演算等)定义的信息度量都是模加常数不变的。
Adriaans (2020, 2021) 提出了一个由这一见解所暗示的统一研究计划,名为差分信息理论 (DIT):一种纯数学的非算法描述性信息理论,基于 1) 使用对数函数测量自然数中的信息(有关深入讨论,请参阅第 5.1.7 节)和 2) 递归函数信息效率的概念。其他定量提议,如香农信息和柯尔莫哥洛夫复杂性,可以放在这个纯描述框架中,作为应用信息理论的形式,涉及存在于存在时间概念的领域的半物理系统。DIT 的一大优势是递归函数是公理定义的。这使得信息理论能够发展为一门与数学和物理学核心概念一致的严格学科。利用微分信息理论,可以研究计算、随机(以及游戏或创作过程等混合过程)信息的创建和销毁。