技术哲学(完结)
新的道德反射领域通常被称为应用道德,即在道德哲学中发展的理论,规范标准,概念和方法的应用。 然而,对于这些元素中的每一个,应用程序通常不简单,而是需要进一步的规范或修订。 这种情况是这种情况,因为普通道德标准,概念和方法通常不足以适用于对特定道德问题的任何直接意义。 因此,“申请”往往导致新的见解,这可能会导致重新制定或至少改进现有的规范标准,概念和方法。 在某些情况下,特定领域的道德问题可能需要新的标准,概念或方法。 例如,Beauchamp和Childress例如提出了一些普通的生物医学伦理伦理原则(Beauchamp&Childress 2001)。 这些原则比一般规范标准更具体,但仍然如此一般,摘要它们适用于生物医学伦理的不同问题。 在计算机伦理中,有关例如隐私和所有权的现有道德概念已经重新定义并适应处理计算机年龄典型的问题(约翰逊2003)。 一个例子是Nissenbaum在语境完整性方面了解隐私的建议(Nissenbaum 2010)。 例如,伦理应用的新领域也可能需要新的方法,例如挑剔的道德问题,以考虑有关这些领域的相关经验事实,就像技术研究和发展通常在人物网络中而不是个人的情况下进行(Zwart等,2006)。 另一个适用于许多新技术的一般问题是如何应对通常包围新兴技术的社会和道德影响的不确定性。 Brey(2012)预期道德的建议可能被视为对这一挑战的答复。 预期问题也是最近近期负责任研究和创新领域(RRI)的核心问题之一(例如,Owen等,2013)。
虽然对特定技术的不同伦理思考领域可能会升高自己的哲学和道德问题,但这可能会质疑这是否证明了单独的子场或甚至是子宫内学科的发展。 一个明显的论点可能是,为了说出关于新技术的道德意义,需要专门和详细了解特定技术。 此外,这种子场允许与相关非哲学专家进行互动,例如法律,心理学,经济,科学和技术研究(STS)或技术评估(TA),以及相关词干(科学,技术,工程,医学)学科。 另一方面,也可以说,可以从专门从事不同技术的伦理师之间的互动和讨论以及与上面讨论的其他两条股(文化和政治方法和工程道德)的效果相互作用来学习很多。 特别是通过提请注意司法问题,权力差异以及更大的机构和国际环境的作用,特别是对特定技术(如AI)的道德问题的方法进行互补的方法可以互补。 目前,许多情况下的这种互动似乎缺席,尽管当然存在例外情况。
3.3技术伦理中的一些经常性主题
我们现在转向技术伦理中一些具体主题的描述。 我们专注于许多一般主题,在技术的道德规范中提供了一般问题的说明,并对这些受到治疗的方式。
3.3.1中立与道德机构
技术伦理中的一个重要普遍主题是技术是否有价值的问题。 一些作者认为,技术是值得中立的,从意义上讲,技术只是一个中性的手段到结束,因此可以放在良好或不错(例如,PITT 2000)。 这一观点可能在技术被认为只是一个裸露的物理结构中存在一些合理性。 然而,大多数技术哲学家都同意技术发展是一个面向目标的过程,并且定义的技术人员具有某些功能,使他们可以用于某些目标,但对于其他目标,它们可以用于某些目标,但不可用于或更难以或更有效地使用。 技术工件,功能和目标之间的这种概念性联系使得该技术难以维持到价值中性。 即使这一点被授予,技术的价值也可以在一系列不同的方式中解释。 一些作者认为技术可以有道德机构。 这一索赔表明,技术可以在道德意义上自主和自由地“行动”,并可以在道德上对他们的行为负责。
这些辩论是否能够在计算机伦理中开始技术(Bechtel 1985; Snapper 1985; Dennett 1997;佛罗里达州和桑德兰2004),但已经扩大了。 通常,声称技术(CAN)有道德代理商的作者通常会重新定义机构的概念或其与人类的联系(例如,Latour 1993; Floridi&Sanders 2004,Verbeek 2011)。 这种策略的缺点是它倾向于模糊人与技术伪影之间的道德相关的区别。 更一般地说,技术人士有有时似乎已经成为声称技术在道德上相关的速记。 然而,这忽略了事实技术可以以其他方式提供价值,而不是拥有道德机构(参见,例如,Johnson 2006; Radder 2009; Illies&Meijers 2009; Peterson&Spahn 2011;米勒2020; Klenk 2021)。 例如,一个可能声称技术能够实现(甚至邀请)并限制(甚至抑制)某些人类行为和达到某些人体目标,因此在某种程度上是值,而不是要求道德技术工件的道德原子能机构。 辩论概述可以在Kroes和Verbeek 2014中找到。
关于道德机构和技术的辩论现在是智能人工代理的设计特别突出。 James Moor(2006)在四种方式之间分化,其中人工剂可能是或成为道德药剂:
道德冲击剂是机器人和计算机系统,这些机器人和计算机系统的良好影响它们的环境; 所有人工代理人可能都是如此。
隐含的道德药剂是已经被编程为根据某些值采取的人工剂。
明确的道德代理是可以代表道德类别的机器,可以是关于这些的“理由”(以机器语言为单位)。
另外还具有一些特征,我们经常考虑人类机构的至关重要,如意识,自由意志和意向性。
可能从来没有能够技术设计全道德代理,如果要成为可能,那么它可能是值得怀疑的吗(Bostrom&Yudkowsky 2014; Van Wynsberghe和Robbins 2019)。 正如Wallach和Allen(2009)所指出的那样,主要问题可能不是设计可以自主起作用的人工代理,并且可以使自己适应与环境的互动,而是可以建立足够的,以及适合种类的道德敏感性。
除了问题之外,智能人工代理人是否可以有道德机构,有关于其道德地位的(更广泛)的问题; 例如,他们 - 如果是这样的条件 - 有资格作为道德患者有资格,人类有一定的道德义务。 传统上,道德状况与意识相同,但许多作者提出了更低的道德地位标准,特别是(社会)机器人。 例如,丹娜赫(2020)建议行为主义标准可能足够就足够,而Coeckelbergh(2014)和Gunkel(2018)则提出了一种关系方法。 Mosakas(2021年)认为这种方法不是基地道德地位,因此人类对社会机器人没有直接的道德责任(尽管他们可能仍然以其他方式在道德上相关)。 其他人建议,社会机器人有时可能欺骗我们认为他们有一定的认知和情感能力(这可能在他们没有(Sharkey和Sharkey 2021)的同时,这可能会给他们也是道德地位)。
3.3.2责任
责任一直是技术伦理中的中心主题。 然而,传统的技术哲学和伦理德语倾向于以相当一般的术语讨论责任,并且对工程师承担他们所开发的技术负责的可能性相当悲观。 例如,Ellul拥有特征工程师作为技术的高牧师,他珍惜技术,但不能引导它。 Hans Jonas(1979年[1984])认为技术需要一种伦理,其中责任是中央势在必行,因为在历史上的第一次我们能够摧毁地球和人性。
在工程伦理中,工程师的责任通常就阐明了工程师的具体责任的道德规范。 这些道德规范应对工程师的三种类型的责任:(1)以诚信和诚实,以合格的方式,(2)对雇主和客户的责任以及(3)对公众和社会的责任。 关于后者,大多数美国的道德规范都认为工程师应该为公众提供最重要的安全,健康和福利。
正如几位作者所指出的那样(Nissenbaum 1996; Johnson&Powers 2005; Swierstra&Jelsma 2006),可能很难确定工程中的个人责任。 原因是,在哲学文献中讨论的个人责任(如行动,知识和因果关系的自由),往往不会被各个工程师讨论的适当归属的条件。 例如,由于层级或市场限制,工程师可能被迫以某种方式行动,并且可能会非常努力或不可能预先预测负面后果。 由于从技术的研究和开发,直到它的使用以及参与这一链条的许多人来说,因果关系往往难以满足。 戴维斯(2012年)尽管如此,尽管各个工程师可以并承担责任,但仍然存在这种困难。
在这场辩论中受到威胁的一个问题是责任的概念。 戴维斯(2012年),而且还例如Ladd(1991),争论责任概念,专注于责任的责任,并强调承担承担责任的前瞻性或良性性质。 但许多其他人侧重于向后概念的责任,压力责任,责任或责任。 例如,Zandvoort(2000),例如,在工程中概念概念更像是严格责任的法律概念,其中责任的知识条件严重削弱。 Doorn(2012)比较了工程责任归属的三个观点 - 以绩效为基础,基于权利和后果主义的观点 - 并认为适用于前瞻性责任概念的后果主义观点在影响工程实践中是最强大的。
归因于个人责任的难度可能导致许多手(PMH)的问题。 该术语首先由Dennis Thompson(1980)创造于一篇关于公职人员的责任。 该术语用于描述集体设置中个人责任的审查问题。 Doorn(2010)提出了一种基于Rawls反思均衡模型的程序方法,以处理PMH; 处理PMH的其他方式包括有助于避免它或强调组织(Van de Poel,Royakers,Zwart 2015)的善行的机构的设计。
虽然PMH是指将责任归咎于人类代理商的责任,技术发展也使得可以为自学和智能系统分配任务。 这种系统可以以难以理解,预测和控制人类的方式起作用和学习,从而导致所谓的“责任差距”(Matthias 2004)。 由于知识和控制通常被视为(必要的)责任的前提条件,因此缺乏其可能使得难以承担智能系统的行为和后果的人类越来越困难。
最初,这些责任差距主要讨论了自主武器系统和自动驾驶汽车(Sparrow 2007; Danaher 2016)。 作为可能的解决方案,已提出有意义的人类控制的概念作为这种系统的发展和雇用的前提,以确保人类可以保留控制,从而责任这些系统(Santoni de Sio和Van Den Heroven 2018)。 Nyholm(2018)据称,在协作人力技术机构(在监督角色中的人类中,许多所谓的责任差距差距更好地理解,而不是通过控制的技术。 虽然责任差距可能不是不可能的,但更困难的问题可能是对所涉及的各种人类的责任归咎于(将PMH带回桌面上)。
最近,责任差距已成为与AI相关的更为普遍的关注。 由于机器学习的进展,AI系统可以以艰难的方式学习,或者几乎不可能理解人类。 最初,在文献中解决责任差距的责任的主导概念受到责任或责任,但最近建议Santoni de SiO和Mecacci(2021年)区分他们称之为持股差距,道德问责制差距,公共问责制差距,积极责任差距。
3.3.3设计
在过去的几十年中,不仅在使用技术期间出现的道德问题而越来越关注,也是在设计阶段期间的伦理问题。 这一发展背后的重要考虑因素是在设计阶段技术期间的思想,以及他们的社会后果,而在使用期间,在使用期间,或多或少给出的,负面的社会后果可能更难避免或积极影响越来越难以实现。
在计算机伦理中,已经开发出一种称为价值敏感设计(VSD)的方法,以明确解决设计的伦理性质。 VSD旨在以系统的方式整合工程设计中的道德重要性(Friedman&Hendry 2019)。 该方法结合了概念,实证和技术研究。 还有一系列其他方法,包括设计中的值。 工程目标中的“X设计”方法包括仪器值(如可维护性,可靠性和成本),但它们还包括可持续性,包容性设计和情感设计(Holt&Barnes 2010)。 包容性设计旨在制定整个人口的设计,包括例如有残障人士和老人(Erlandson 2008)。 情感设计旨在唤起与用户的积极情绪的设计,因此有助于人类福祉。 Van de Hoven,Vermaas和Van de Poel 2015概述了各种值和应用领域的价值敏感设计的最新概述。
如果一个尝试将值集成到设计中,则可能会遇到值冲突的问题。 最安全的汽车是由于其重量,不太可能是最可持续性的。 这里的安全和可持续性在汽车设计中冲突。 传统方法,其中工程师处理此类冲突并在不同的设计要求之间进行权衡,包括成本效益分析和多标准分析。 然而,这种方法存在于2.4节(Franssen 2005; Hansson 2007)中讨论的方法论问题。 Van de Poel(2009)讨论了处理设计中价值冲突的各种替代方案,包括阈值(令人满意),推理价值观,创新和多样性。
3.3.4技术风险
技术的风险是技术伦理中的传统伦理问题之一。 风险不仅提高了道德问题,而是其他哲学问题,如认识论和决策理论问题(Roeser等,2012)。
风险通常被定义为不良事件概率的乘积和该事件的效果,尽管周围还有其他定义(Hansson 2004b)。 通常,似乎希望保持尽可能小的技术风险。 风险越大,不良事件的可能性越大或影响越大。 因此,风险降低是技术开发和工程守则的重要目标,道德规范往往将工程师的责任归因于减少风险和设计安全产品。 仍然,风险降低并不总是可行或可取的。 它有时是不可行的,因为没有绝对安全的产品和技术。 但即使减少风险是可行的,也可能无法从道德角度来看。 降低风险通常以成本为止。 更安全的产品可能更难以使用,更昂贵或更少可持续。 所以迟早,一个人面对问题:什么是安全的? 是什么让风险(联合国)可接受?
处理风险的过程通常分为三个阶段:风险评估,风险评估和风险管理。 其中,第二是最明显的道德相关。 然而,风险评估已经涉及价值判断,例如应该首先评估风险(Shrader-Frechette 1991)。 一个重要的,道德相关,问题也是建立风险所需的证据程度。 在一个经验数据的基础上建立风险,可能会产生两种错误。 当实际上没有(I型错误)或者一个人错误地结束时,人们可以建立风险,而实际上没有风险(II型错误)。 科学传统上旨在避免I型错误。 若干作者认为,在风险评估的具体背景下,避免II型错误往往更重要(Cranor 1990; Shrader-Frechette 1991)。 这是原因,风险评估不仅仅是建立科学真理,而且具有实用的目标,即提供基于哪些决定是否有理由减少或避免某些技术风险来保护用户或公众。
风险评估以多种方式进行(参见,例如,Shrader-Frechette 1985)。 一种可能的方法是通过将它们与其他风险或某些标准进行比较来判断风险的可接受性。 例如,可以比较天然存在的风险的技术风险。 然而,这种方法运行了犯下自然主义谬误的危险:自然发生的风险可能(有时)是不可避免的,但这并不一定使他们在道德上可接受。 更一般地说,如果A和B不是决定中的替代方案(在推理风险的推理中的其他谬误,请参阅Hansson 2004a的替代方案,通常可以怀疑技术A的风险A的可接受性a
第二种风险评估方法是风险成本效益分析,这是基于对活动的益处来称量风险。 如果进行(风险)成本效益分析(Kneese,Ben-David和Schulze 1983),可以应用不同的决策标准。 根据汉森(2003:306),通常采用以下标准:
...如果才能且仅当暴露产生超过总风险的总益处,则冒险是可以接受的,以衡量结果的概率加权的患者的概率。
第三种方法是根据在通知这些风险(知情同意)后遭受风险的人的同意基础风险接受。 这种方法的问题是,技术风险通常会立即影响大量的人。 因此,知情同意可能导致“僵局协会”(Hansson 2003:300)。
一些作者在哲学和道德论证的基础上提出了传统风险评估方法的替代方案。 Shrader-Frechette(1991)提出了在基于当前做法的哲学批判的基础上提出了一些风险评估和评估程序的改革。 Roeser(2012)争论情绪在判断风险可接受方面的作用。 汉森提出了以下风险评估的替代原则:
如果这种曝光是公平社会制度的努力的公平社会制度的一部分,才能接受某人风险的风险是可接受的。 (汉森2003:305)
Hansson的提案在风险评估中引入了许多道德考虑,传统上没有解决或仅略微解决。 这些是考虑个人从危险活动中获利的考虑,以及考虑风险和福利的分配是公平的。
关于可接受风险的问题也可能在风险征收方面框架。 然后,问题是某些代理A对某些其他代理B施加风险的任何条件。可接受风险征收的标准部分类似于上面讨论的标准。 例如,如果代理商B给予其知情同意,或者产生风险的风险活动对于代理商B.但是,其他考虑因素进一步,也是如此,就像代理A和代理商B之间的关系一样,这也是如此父母可以接受对孩子施加某些风险,而政府对儿童产生这种风险是不当的。
如果它们导致统治或统治效果(Maheshwari和Nyholm 2022),则风险征收可能尤其是有问题的。 在这里,在Pettit(2012年)等哲学家提出的共和国意义上理解了统治。 统治的自由不仅需要人们可以选择不同的选择,而且还可以从其他方面的(可用性)中的(潜在)任意干扰自由。 因此,非统治要求其他人没有任意干扰一个人的选项(无论是否行使该电源)。 风险征收可能导致统治(或至少占主导地位的效果)如果通过对代理B(风险承担者)施加风险(风险承担者)可以任意影响代理B的安全选择范围的统治
一些作者批评了技术伦理伦理的关注。 一股批评认为,我们往往缺乏知识,以便在使用之前可靠地评估新技术的风险。 我们经常不知道可能出错的可能性,有时我们甚至不知道,或者至少完全不知道,可能出错,可能是可能的负面影响。 要处理这一点,一些作者提议设想将社会新技术的引入作为社会实验,并敦促考虑这种实验在道德上可接受的条件(Martin&Schinzinger 2022; Van de Poel 2016)。 另一个批评的批评指出,重点是风险导致减少了所考虑的技术的影响(Swierstra&TE模具2012)。 只考虑了可以计算为风险的安全和健康有关的影响,而忽略了“软”的影响,而是忽视了社会或心理学的影响,从而贫困了对新技术的道德评估。