信息技术和道德价值观(完结)

对于参数的缘故,即使他在估计AI将成功创建可以与您交流的机器时,他也是正确的。 耶鲁大卫教授吉利斯特担心,提出了一些令人不安的道德问题。 “你将没有理由将其视为一种与您有道德职责的人,而不是像你喜欢使用的工具一样”(Gelernter 2007)。 GELERNTER表明,意识是道德机构的要求,并且在没有道德的情况下,我们可能无法以任何方式对待任何事情。 Sullins(2006)通过注意到道德机构不需要意识,核对这一论点。 例如,我们的环境中的非人类动物和其他生活和非生物的事物必须符合某些道德权利,实际上,任何有能力的AI也会有道德职责以及权利,无论其作为有意识的存在(Sullins 2006)。

AI肯定能够以简单的方式创造能够与人类有效交流的机器,这是由Apple Siri,Amazon Alexa,OK Goolge等所证明的。以及企业用于自动化客户服务的许多系统,但这些仍然是一种方式自然类型的无所谓的谈话人类彼此相辅相成。 但是,在评估这些技术的道德影响方面可能无关紧要。 此外,还有许多使用AI技术的其他应用程序。 几乎所有上面都讨论的信息技术,如搜索,计算机游戏,数据挖掘,恶意软件过滤,机器人等,都利用了AI编程技术。 因此,AI将成为信息技术道德影响的主要位置。 许多政府和专业协会现在正在制定道德准则和标准,以帮助塑造这一重要的技术,就是智能和自治系统伦理的全球倡议(IEEE 2018)。

3.4.2.2人工生命

人工生命(Alife)是AI的产物,是指信息技术的使用来模拟或综合寿命功能。 自成立以来,定义生活的问题是对哲学的兴趣。 看看生活的进入,看看生活的概念及其哲学的后果。 如果科学家和技术学家在发现生命的必要和充分条件下,然后在机器或通过合成生物学中成功地合成它,那么我们将踩到具有显着道德影响的领土。 标记bedau已被跟踪的哲学的影响人工生命一段时间现在认为有两种不同形式的人工生命和每一个会因此有不同的道德的影响如果而且当我们成功实现这些单独的研究议程(bedau 2004; bedau和帕克2009)。 一种形式的Alife是完全计算的,实际上是最早的Alife研究。 Alife受到Mathematician John Von Neumann的自我复制蜂窝自动机的工作的启发,Von Neumann认为将导致对生物学和生命科学的计算理解(1966年)。 计算机科学家克里斯托弗兰顿大大简化了冯·诺伊曼的模型,并在八十年代初期制作了一种称为“循环”的简单蜂窝自动机,并通过组织第一个关于人工生命的会议(1989)的少数会议帮助地离开地面。 人工生命计划与AI计划完全不同。 如果AI旨在创建或增强智能,那么Alife就是满足于具有非常简单的思想程序,这些程序显示生活功能而不是智能。 这里的主要道德问题是,这些程序旨在自我繁殖,并以这种方式类似于计算机病毒,实际上成功的Alife计划可能成为恶意软件矢量。 第二种树立形式在道德上是更常规的。 这种形式的Alife是基于操纵实际的生物和生化过程,以便在自然界中产生新的生命形式。

J.Craig Venter Institute的科学家能够在2010年5月综合称为JCVI-SYN1.0的人为细菌。虽然媒体对这一突破引起了关注,但他们倾向于关注人工创造的潜在道德和社会影响细菌。 Craig Venter自己推出了一场公共关系活动,试图引导关于创造生命的问题的对话。 在生命的合成中的第一集使我们能够在合成更可行和稳健的人工原始细胞时产生的兴奋和争议。 湿Alife提出的道德问题,因为这种研究被称为这种研究,更适合于生物伦理的管辖权(参见理论和生物伦理的进入)。 但它确实对我们这里有一些关注的是,湿漉漉的Alife是将生命科学理论转变为信息技术的过程的一部分。 这将倾向于模糊生物伦理和信息伦理之间的界限。 正如软件的那样,Alife可能导致危险恶意软件,那么也可能湿漉漉的Alife导致危险的细菌或其他疾病药剂。 批评者表明,追求这项技术存在强大的道德论据,我们应该在此处应用预防原则,这使得如果有可能导致灾难性危害的技术,并且没有科学共识表明伤害不会发生,那么那些希望开发技术或追求该研究必须先证明它是无害的(参见Epstein 1980)。 Mark Bedau和Mark Tranige通过暗示我们应该选择为追求对人类的人类理解这么重要的一步(2009)而选择道德勇气的预防原则。 他们呼吁勇敢的勇气概念,而不是一个笨拙和愚蠢的匆忙进入未知,而是一个坚决和谨慎的一步,进入这项研究所提供的可能性。

3.4.3机器人和道德价值观

信息技术尚未满足于局限于虚拟世界和软件实现。 这些技术也通过机器人应用直接与我们互动。 机器人是一种新兴技术,但它已经生产了许多具有重要道德含义的应用程序。 军事机器人,医学机器人,个人机器人和性机器人等技术只是已经存在的机器人的一些存在影响和表达我们的道德承诺(参见,安德森和安德森2011; Capurro和Nagenborg 2009; Lin等人。2012,2017)。

对机器道德和机器人伦理(Roboevice)的发展领域已经有许多有价值的贡献。 例如,在Wallach和Allen的书道德机器中:教学机器人从错误(2010)中,提交人们为可以在工程学的机器人领域和工程师的领域中提供了可以在功能上的机器人的设计和编程的想法,其中工程师正在尝试创建可以创造的机器人的示例以道德上可靠的方式行事。 出台半和全自动机器,(意味着做出决策的机器,很少或没有人为干预),进入公共生活并不简单。 在此目的,Wallach(2011年)也有助于讨论哲学在帮助设计机器人使用和监管的公共政策方面的讨论。

军事机器人已被证明是最具良好的机器人计算机应用程序之一(Lin等人,2013年,2013年Lin 2010; Strawser,2013)。 如今,这些机器在很大程度上是远程操作(Telerobots)或半自动,但随着时间的推移,由于现代战争的必要性(歌手2009),这些机器可能会变得越来越自主。 在21世纪的战争的第一个几十年中,机器人武器一直参与了众多士兵和非纳米人(PLAW 2013)的杀戮,而且这个事实是一个深刻的道德问题。 Gerhard Dabringer已经与伦理学家和技术学家进行了众多面试,了解自动化战争的影响(Dabringer 2010)。 许多伦理主义者在接受自动化方面的审慎方面是谨慎的,即该技术用于加强战争的道德行为,例如通过减少民用和军事伤亡或帮助战争者遵循国际人道法和其他法律和道德行为守则在战争中(见林等人。占据大部分风险(Asaro 2008;夏尔基2011年)。

4.道德信息技术

信息技术领域的一个关键发展是他们不仅是道德审议的对象,而且它们也开始被用作道德审议本身的工具。 由于人工智能技术和应用是一种自动化问题的求解器,而道德审议是一种问题,因此自动道德推理技术会出现之前只是时间问题。 这仍然只是一个新兴的技术,但它有许多非常有趣的道德含义,这将在下面概述。 未来几十年可能会在这一领域看到许多进展,伦理学家在发生时需要密切关注这些发展。 苏珊和迈克尔安德森在他们的书中收集了一些关于本课题的文章,机器道德(2011年)和Rocci Luppicini在技术素质研究手册中有一部分致力于本课题的选项(2009年)。

4.1信息技术作为道德发现的模型

Patrick Grim一直是长期的推荐人,即哲学应该利用信息技术自动化和说明哲学思想实验(Grim等人。1998; Grim 2004)。 Peter Danielson(1998)还开始在这一主题上撰写了广泛的撰写,从他的书籍建模合理,道德和演变,在使用计算机模型的计算理论中的许多早期研究,以阐明简单软件AI之间的合作的出现,或者Alife代理(Sullins 2005)。

卢西亚诺佛罗里达州和J. W.桑德斯认为,在计算理论中使用它可以作为一个强大的想法,可以帮助解决哲学中的一些着名道德难题(1999,2001)。 提出与道德邪恶和自然邪恶,哲学熟悉的概念(参见邪恶问题); 我们添加了第三个概念,他们称之为人为邪恶(2001)。 佛罗里达和桑德斯争辩说,如果我们这样做,那么我们可以看到人工代理的行为

......即使在没有生物学赋予者的情况下,也可以确定道德上或邪恶,因此允许人工代理不仅犯下邪恶(以及对此而且很好),而是反对“接受”或“遭受”它“。 (佛罗里达和桑德斯2001)

然后邪恶可以等同于信息解散,其中无可挽回的信息损失是糟糕的,信息的保存是好的(佛罗里达和桑德兰2001)。 这个想法可以让我们更接近在信息环境中测量任何给定行动的道德影响的方式。

4.2信息技术作为道德制度

二十世纪早期美国哲学家约翰杜威(参见John Dewey的条目)提出了一种根据技术用途的仪器使用的探究理论。 Dewey对技术的广泛定义,不仅包括普通工具和机器,而且包括逻辑,法律甚至语言等信息系统(Hickman 1990)。 杜威认为,我们与我们发现和建造我们世界(Hickman 1990)的所有这些技术的“交易”关系。 这是一个有用的观点,因为它让我们推进了道德和道德信息的信息技术并非不可能。 除了让我们认真对待人类代理与人类与文物之间存在的关系的理念,具有重要的本体论。 杜威只能暗中察觉到信息技术的即将到来的革命,而他的理论仍然是我们的理论仍然是因为他提出道德不仅是一个理论,而且道德的实践和解决问题是解决代数(希克曼1990)的问题。 如果他是对的,那么出现一个有趣的可能性,即道德和道德是可计算问题的可能性,因此应该可以创建一个可以体现道德思想系统的信息技术。

1974年,哲学家Mario Bunge建议我们认真地争论道德哲学家应该刺激工程师方法的问题。 工程师不会通过分类起命的推理来争论,而是使用:

......表单如果是生成b,你的价值b,选择做一个,如果一个生成b和c产生d,你更喜欢b到d,选择一个而不是c。简而言之,他提出的规则是基于道德规则的方式应该是出现的,即作为从科学陈述和价值判断得出的行为规则。 在短期道德中可以被认为是一种技术分支。 (Bunge 1977,103)

认为这一观点严重意味着建筑信息技术的行为也是创造了人类和人工代理的特定道德系统的行为,至少偶尔会通过道德交易互动。 因此,信息技术人员可能在创造道德系统的业务中,无论他们是否知道它,以及他们是否想要这种责任。

4.3信息生物作为道德代理商

最全面的文学,赞成利用信息技术创造人工道德代理的前景是Luciano Floridi(1999年,2002年,2003年,2010b,2010年)和佛罗里达州与杰夫W.桑德斯(1999,2001,2004)。 佛罗里达州(1999)认识到信息技术伦理影响所提出的问题,这些问题应对我们传统的道德理论。 为了缓解这种摩擦,他认为需要的是更广泛的信息哲学(2002)。 在进行这一举措之后,佛罗里达州(2003年)声称信息是其自身的合法环境,具有自身的内在价值,这些内在价值是与自然环境类似的方式,以其他方式在根本上的外国,无论是那种方式都是值得道德的事物关注。 佛罗里达州(2003)使用这些想法使用面向对象编程的逻辑来创建道德行动的理论模型。

他的模特有七种组成部分; 1)道德试剂A,2)道德患者P(或更适当,试剂),3)这些代理人的相互作用,4)代理商的信息框架,5)关于代理人试图导航的情况的代理商可用的事实信息,6)环境中的环境发生在和7)发生相互作用的情况(佛罗里达2003,3)。 注意,在建模的道德关系中没有假设有关的药剂的本体,这些药物可以是任何混合物或人工或天然的原产地(Sullins 2009a)。

还有额外的文献,批评佛罗里达争议是佛罗里达州的争论,希望能够扩大自动道德推理的想法,以便可以谈论许多不同类型的自动道德技术,一直到具有类似权利和责任的全面道德代理商的简单应用程序人类(Adam 2008; Anderson和Anderson 2011;约翰逊和权力2008; Schmidt 2007; Wallach和Allen 2010)。

虽然学者们认识到我们仍然是创造信息技术的一段时间,但是将毫不含糊地被认为是人工道德因素的信息,有着强烈的理论论点,暗示自动化的道德推理是最终可能性,因此它是对感兴趣的人的适当研究领域信息技术的道德影响。

(本章完)

相关推荐