资讯(一)

信息哲学涉及来自历史和系统的观点的信息概念分析。 随着经验主义知识理论的出现早期现代哲学,在二十世纪的各种数学理论的发展和信息技术崛起的兴起,“信息”的概念征服了科学和社会的中央地。 这种兴趣也导致了一个独立的哲学分支机构,分析了其所有顾客的信息(Adriaans&Van Benthem 2008a,b; Lenski 2010;佛罗里达2002,2011,2019)。 信息已成为科学和人文学科的核心类别,以及信息的反思影响了广泛的逻辑哲学学科(Dretske 1981; Van Benthem&Van Rooij 2003; Van Benthem 2006,见进入逻辑和信息),认识论(Simondon 1989)道德(佛罗里达1999)和美学(Schmidhuber 1997a; Adriaans 2008)对本体论(Zuse 1969;惠勒1990; Schmidhuber 1997B; Wolfram 2002;休哈特2010)。

信息哲学是一个哲学的子学科,与逻辑和数学哲学复杂相关。 语义信息哲学(佛罗里达2011年,D'Alfonso 2012年,2016年,Adams&de Moraes)再次是信息哲学的子学科(参见参赛信息地图的信息的信息概念)。 从这个信息的透视哲学有兴趣在最普遍的层面调查主题:数据,形成良好的数据,环境数据等语义信息的哲学增加了意义和真实性的尺寸,长(2014),Lundgren(2019)。 可以解释语义信息哲学框架中信息的定量理论(有关深入讨论,请参阅第6.5节)。

若干作者提出了一种或多或少的信息哲学,作为从新的视角开始重新思考哲学的企图:例如,量子物理(Mugur-Schächter2002),逻辑(Brenner 2008),沟通和消息系统(Capurro和Holgate 2011)和Meta哲学(吴2016年,2016年)。 Luciano佛罗里达州的语义信息(佛罗里达州2011年,2013,2014,2019; D'Alfonso 2012; Adams&de Moraes 2016,看看信息的语义概念)值得特别提及。 在一些论文和书籍中,佛罗里达州制定了一个系统的一致性的超越哲学信息,它将他定义为大陆传统中的稀有现代系统建设者之一。 他的项目的角落是在信息的定义中纳入真实性。 这种选择作为分界标准工作:信息和计算的技术数量概念并不应处理真实性,从而围绕语义信息哲学的核心之外。 由此产生的信息概念也更接近我们在日常生活中使用的天真概念。 与此同时,这是Adriaans&Van Benthem 2008a,b的方法。 在口号信息下是什么信息,他们采取了更加务实的,不那么重要的方法,对象的方法。 对信息理论与计算理论的哲学后果的分析是他们研究计划的核心。 从这个角度来看,信息的理念出现为一个技术学科,哲学史上有深刻的根源,以及对方法,认识论和道德等各种学科的后果。 从研究人员这样的研究人员这样的替代方法,人们可以区分源于逻辑(范生物)或复杂性理论(Vitanyi)的研究传统的信息学校。

无论对信息哲学的性质的解释是什么,它似乎暗示了一个雄心勃勃的研究计划,包括许多不同从哲学史上的哲学史上的历史上的许多子项目,深入分析信息在科学,人文与社会中的作用。

1.信息的概念

1.1口语演讲中的信息

1.2信息概念的技术定义

2.历史的历史和信息的概念

2.1古典哲学

2.2中世纪哲学

2.3现代哲学

2.4历史发展“信息”一词的含义

3.建立现代信息理论块

3.1语言

3.2最佳代码

3.3号码

3.4物理

4.信息哲学的发展

4.1 Popper:信息与伪料程度一样

4.2香农:在概率方面定义的信息

4.3 Solomonoff,Kolmogorov,Chaitin:信息作为程序的长度

5.系统考虑

5.1信息哲学作为数学哲学的延伸

5.1.1信息作为自然现象

5.1.2符号操作和扩展率:集,多重标识和字符串

5.1.3组和数字

5.1.4数量中的信息

5.1.5在数字集中测量信息和概率

5.1.6统一的侧视图

5.1.7信息处理和信息流

5.1.8信息,素数和因素

5.1.9算术的不完整性

5.2信息和符号计算

5.2.1图灵机

5.2.2普遍性和不变性

5.3量子信息及以后

6.异常,悖论和问题

6.1系统搜索的悖论

6.2有限套件有效搜索

6.3 P与NP问题有问题,描述性复杂性与时间复杂性

6.4模型选择和数据压缩

6.5确定主义和热力学

6.6逻辑和语义信息

6.7意义和计算

7.结论

参考书目

学术工具

其他互联网资源

相关条目

1.信息的概念

1.1口语演讲中的信息

句子语音中的术语“信息”目前主要用作用于表示在任何媒体中存储,发送,发送或操纵的任何数据,代码或文本的抽象质量名词。 缺乏精确性和普遍用途的术语“信息”。 在我们的社会中,我们通过仪器和安装的仪器和装置探讨了现实,这些乐器和望远镜,回旋正常)和通过更多先进的媒体进行沟通(报纸,广播,电视,短信,互联网),有一种抽象的群众是有用的 - 用于通过这些媒体创建的“东西”的名词,并通过这些媒体进行“流动”。 从历史上看,这种一般意义出现了相当迟到,似乎与大众媒体和情报机构的兴起有关(Devlin&Rosenberg 2008; Adriaans&Van Benthem 2008b)。

在目前的口语演讲中,术语信息用于各种松散定义,通常是甚至相互冲突的方式。 例如,大多数人会考虑以下推理prima facie有效:

如果我收到p的信息,那么我知道p。

同样的人可能没有任何问题,即“秘密服务有时分发错误信息”,或者句子“事故证人提供的信息是模糊和冲突的句子”。 第一个陈述意味着信息必然是真的,而其他陈述允许信息是错误的,冲突和模糊的可能性。 在日常沟通中,这些不一致性似乎没有创造出巨大的麻烦,一般来说,从语用语境中可以清楚地指定了什么类型的信息。 这些例子足以争辩说,参考我们的直觉作为英语语言的扬声器在制定严谨的哲学信息理论方面有很少的帮助。 日常沟通似乎没有务实的压力,以收敛到信息概念的更精确定义。

1.2信息概念的技术定义

在二十世纪,制定了各种建议的信息概念。 拟议的概念集群围绕两个中央属性:

信息很广泛。 中央是添加性的概念:两个具有相同信息量的独立数据集的组合包含两倍的信息作为单独的单独数据集。 拍摄对数的数学操作完全捕获了这种引伸型的概念,因为它减少了乘法来添加:loga×b = loga + logb。

当我们计数和测量对象和结构时,我们在与我们周围的世界的互动中自然地出现了扩张性的概念。 在历史上的基础上,在历史上,在历史上的基础上,在历史的基础上,基本概念是在历史的基础上,在符号操纵的结构规则(Schmandt-Besserat 1992)的基础上。 在数十九世纪及二十世纪初期的研究中,对日志职能的扩展性的数学形式化进行了对数量的。 物理学中定义的熵的不同概念在各种建议中镜像信息的概念。 我们提到与哈特利函数(Hartley 1928)密切相关的Boltzmann熵(Boltzmann,1866),Gibbs熵(Gibbs 1906)与Shannon熵和Tsallis熵等各种概括相等(Tsallis 1988)和Rényi熵(Rényi1961)。 当根据更高级的多维数字系统(复数,四季度,octOnions)的编码时,扩展概念概括为更微妙的添加性概念,不符合我们的日常直觉。 然而,他们在基于量子物理学的信息理论的发展中发挥着重要作用(Von Neumann 1932; Redei&Stöltzner2001,参见量子纠缠和信息)。

信息减少不确定性。 我们得到的信息量与它降低了我们的不确定性,直到我们收到所有可能的信息的那一刻,并且不确定性的数量为零。 不确定和信息之间的关系可能是经质学家首次制定(洛克1689;休谟1748)。 休谟明确地观察到从较大选择的可能性选择提供更多信息。 此观察结果在Hartley(1928)提出的函数中达到了其规范数学制定,该函数定义了我们从有限集中选择元素时的信息量。 唯一统一这两个直觉的唯一数学函数是在概率的否定日志中定义信息的唯一数学函数:i(a)= - logp(a)(Shannon 1948; Shannon&Weaver 1949,Rényi1961)。

我们简要概述了一些相关定义:

信息的定量理论

奈奎斯特的职能:奈奎斯特(1924)可能是第一个表达可以在Log函数方面给定可以传输的“智能”的数量:W = KLOGM,其中W是传输速度,K是常数,并且m是可以选择的不同电压电平。 奈奎斯特利用他措施的智力智力的事实说明了二十世纪初期的术语流动性。

Fisher信息:可观察的随机变量x涉及未知参数θ的信息量,其中X的概率(Fisher 1925)。

哈特利功能:(哈特利1928,Rényi1961,Vigo 2012)。 当我们在均匀分布下从有限集S选择元素E时,我们获得的信息量是该集合的基数的对数:I(E |s)= loga | s |。

Shannon信息:离散随机变量x的熵,h是与x:i(a)= - logp(a)的值相关联的不确定性量的量度(Shannon 1948; Shannon&Weaver 1949)。 Shannon信息是最知名的信息定义,但它是一个相当弱的概念,不捕获直观的无序概念对熵的热力学概念来说是必不可少的:String 0000011111只包含作为字符串1001011100的Shannon信息,因为它具有相同数量的数量和零。

算法复杂性(也知道作为Kolmogorov复杂度):二进制弦X中的信息是在参考通用图灵机U上产生X的最短程序P的长度(图规定1937; Solomonoff 1960,1964a,B,1997年; 1965年; Chaitin 1969,1987)。 算法复杂性概念上比Shannon信息更强大:它确实识别出字符串110010010000111111011010101010001000100001包含很少的信息(因为它给出了数字π的前40位),而Shannon理论将认为这个字符串具有几乎最大的信息。 这次电源价格为期。 KOLMogorov复杂性量量化的所有可能的计算机程序比数据集短。 自从他们很多永远不会终止,我们无法在有限的时间内运行所有这些程序。 这意味着Kolmogorov复杂性是无明显的。 我们制作的测量均取决于我们选择的参考通用图灵机。 作为一种信息的校准复杂性的性质是由图灵机的普遍性保证作为计算模型和所谓的不变性定理的升级性:在限制两个不同的通用图灵机分配给数据集的复杂度仅不同于a常数。 因此,算法复杂性因此是一种不告诉我们大量关于小型有限数据集的渐近度量。 其对日常研究的实用价值是有限的,尽管它与哲学视角和数学工具具有相关性。

物理信息

陆地原则:擦除一点信息所需的最低能量与系统运行的温度成比例(Landauer 1961,1991)。

量子信息:Qubit是经典位的泛化,并在两个状态 - 机械系统中由量子状态描述,该量子状态在复杂数(von Neumann 1932上方的二维矢量空间中正式等同于二维矢量空间; Redei&Stöltzner2001)。

信息的定性理论

语义信息:Bar-Hillel和Carnap开发了一种语义信息理论(1953)。 佛罗里达州(2002,2003,20011)将语义信息定义为形成良好,有意义,真实的数据(Long 2014; Lundgren 2019)。 基于基于信息的信息(Fisher,Shannon,Quantum,Kolmogorov)的定义在更普通的层面上工作,并且不一定在有意义的真实数据集中衡量信息,尽管可以保护该视图,以便可衡量数据必须良好的数据(用于讨论请参见逻辑和语义信息的6.6节)。 语义信息接近我们日常的Naive的信息概念,作为通过关于世界的真实陈述传达的东西。

作为代理人的信息:HITIKKA(1962,1973)启动了知识和信仰等概念的正式逻辑治疗。 Dretske(1981)和Van Benthem&Van Rooij(2003)在信息理论中研究了这些概念,CF。 Van Rooij(2003)在普通消息传递上的问题和答案,或Parikh&Ramanujam(2003)。 当他将信息定义为“当一个人留下信仰,理由和真相”(DUNN 2001:423; 2008)时,邓恩似乎有这个概念。 Vigo提出了一种基于代理人概念收购的复杂性的结构敏感理论(Vigo 2012)。

概述显示了开发的研究领域,其中辩论的背景尚未与发现背景完全分开。 许多建议具有工程风味,依赖于叙述(发送消息,从集合中选择元素,作为抽象模型的人类计算机),这些计算机不会对潜在概念的基本性质进行正当性。 其他提案在Pherosphy中具有更深的根,但是以这样的方式配制,即在科学研究中嵌入有问题。 采取三个有影响力的提案及其验证信息(Shannon-概率; Kolmogorov-Computation;佛罗里达真理)并观察到他们在旁边有共同之处。 有些是甚至是冲突的(真相与概率,确定性计算与概率)。 热力学和信息理论的背景下存在类似的情况:它们使用相同的公式来描述从根本上不同的现象(气体中颗粒的分布速度与概率在一组消息中的分布)。

直到最近,统一这些理论的可能性一般怀疑(Adriaans&Van Benthem 2008a),但经过二十年的研究,统一的观点看起来更好。 各种定量信息概念与不同的叙述(计数,接收消息,收集信息,计算)相关联,源地以于相同的基本数学框架。 数学哲学中信息中心哲学中的许多问题。 研究了各种正式模型之间的转换和减少(封面和托马斯2006;Grünwald&Vitányi2008; Bais&Farmer 2008)。 似乎出现的情况与能量的概念不同:有各种正式的亚理论,关于能量(动力学,电源,化学,核),它们之间具有明确定义的变换。 除此之外,术语“能量”在口语演讲中松散地使用。 在二十世纪在二十世纪衡量信息的相干理论的出现与计算理论的发展密切相关。 在这种情况下,中文是普遍性的概念,等同于等价和不变性:因为图灵系统的概念定义了通用可编程计算机的概念,所以所有通用的计算模型似乎具有相同的功率。 这意味着所有可能的信息衡量可定义的信息可定量的计算(递归函数,图灵机,λ计数等)是不变的模常数。

Adriaans(2020,2021)提出了通过差分信息理论(DIT)的名称所暗示的统一研究计划:信息的纯数学非算法描述性理论,基于1)使用日志函数测量自然数中的信息(见第5.1.7节,深入讨论)和2)递归函数信息效率的概念。 其他定量提案这样的纯粹信息和kolmogorov复杂性可以放置在这种纯粹描述的框架中,作为应用信息理论的形式,涉及在存在时间概念的域中存在的半物理系统。 DIT的一个很大的优点是递归函数在公理上定义。 这允许在数学和物理学的中央概念中发展信息理论作为刚性纪律。 使用差分信息理论,可以研究计算,随机(和游戏播放或创意过程等混合过程)的信息的创建和破坏。

2.历史的历史和信息的概念

术语“信息”的详细历史和随之而来的各种概念是复杂的,并且对于较大的部分仍然必须写入(Seiffert 1968; Schelle 1976; Capurro 1978,2009; Capurro&Hjørland2003)。 “信息”术语的确切含义在不同的哲学传统中变化,其口语使用在地理上和不同的语用语言中不同。 虽然对信息概念的分析是西方哲学的主题,但近期对信息的明确分析是最近的,并且可以追溯到二十世纪下半叶。 此时,很明显,信息是科学和人文学科的关键概念,以及我们的每一天生活。 我们对世界所了解的一切都基于我们收到或收集的信息,以及每个科学的原则上涉及信息。 有一个相关的信息概念网络,具有物理,数学,逻辑,生物,经济和认识论等各种学科的根源。

直到二十世纪的下半年,几乎没有现代哲学家被认为是“信息”成为一个重要的哲学概念。 该术语在Edwards(1967)的众所周知的百科全书中没有引理,并且在Windelband(1903)中未提及。 在这种情况下,对“信息哲学”的兴趣是最近的发展。 然而,随着思想历史的看法,对“信息”概念的反思是哲学史上的主要主题。 该历史的重建与信息研究相关。

任何“思想历史”方法的问题是验证概念研究的潜在假设的验证确实在哲学史上的终结。 在对信息的历史分析的情况下,人们可能会询问Augustine讨论的“信息”的概念是否与Shannon信息有任何联系,而不是这些术语的相似之处。 同时,人们可能会询问洛克的“历史,普通方法”是对现代信息概念出现的重要贡献,尽管在他的着作洛克几乎没有使用技术意义上的“信息”一词。 如下所示,有一个涉及从古代发展到近期信息的信息概念的想法,但进一步研究了信息概念的历史。

(本章完)

相关推荐