人工智能与机器人的伦理(三)

一般来说,一个问题是自主机器人提出问题的程度我们目前的概念计划必须适应,或者是否只需要技术调整。 在大多数司法管辖区中,有一个复杂的民事和刑事责任制度,以解决这些问题。 技术标准,例如,用于安全使用医疗环境中的机械,可能会调整。 已经有一个“可验证的AI”领域,用于此类安全关键系统和“安全应用程序”。 像IEEE(电气和电子工程师协会)和BSI(英国标准机构)这样的机构已经产生了“标准”,特别是在更具技术性的子问题上,例如数据安全和透明度。 在陆地上的许多自主系统中,在水下,在空中或空间中,我们讨论了两个样本:自主车辆和自主武器。

2.7.1示例(a)自动车辆

自主车辆举行的承诺,以减少非常显著损坏人驾驶目前的原因-约100万人被杀了每年,更多的人受伤,环境污染的,地球密封与混凝土和泰马克,城市充满了停汽车等。然而,有似乎是问题关于如何自治车辆应该行为,以及如何责任和风险应分布在复杂的系统车辆运行中。(还有显著分歧过多长时间的发展完全自主,或“第5级”汽车(汽车工程师协会国际2018)实际上会采取。)

在这种背景下有一些关于“手推车问题”的讨论。 在经典的“手推车问题”(Thomson 1976; Woollard和Howard-Snyder 2016:第2节)提出了各种困境。 最简单的版本是在轨道上朝向五个人的轨道上的推车火车,除非火车被转移到侧轨道上,否则在这条轨道上有一个人,如果火车接受那个侧轨道,谁将被杀。 该示例返回(脚1967:6)的评论,他讨论了许多困境的情况,其中宽容和行动的预期后果不同。 “手推车问题”不应该描述实际的道德问题或用“正确”选择来解决。 相反,它们是考虑实验的,其中选择人为地限制为小型有限数量的独特的一次性选择,而代理人具有完美的知识。 这些问题被用作调查道德直觉和理论的理论工具 - 特别是积极做与允许某些东西的差异,预期的与容忍后果和后果主义者与其他规范方法(Kamm 2016)。 这种类型的问题提醒了实际驾驶和自主驾驶中遇到的许多问题(Lin 2016)。 然而,这是值得怀疑的,实际的司机或自主车必须解决推车问题(但看到龙骨2020)。 虽然自动车推车问题受到了很多媒体的关注(Awad等,2018年),但它们似乎并不是为道德理论或自主车辆的编程提供新的。

驾驶中的更常见的道德问题,例如超速,危险的超车,不保持安全距离等是追求个人兴趣与普遍的经典问题。 绝大多数这些都被驾驶法律规定所涵盖。 因此,编程车辆“通过规则”而不是“通过乘客的兴趣”或“实现最大实用程序”,因此对编程道德机器的标准问题进行了放气(参见第2.9节)。 何时何时违反规则(Lin 2016),可能会有额外的自由定义和有趣的问题,但似乎更多地是将标准考虑(规则与效用)应用于自治车辆的案例。

该领域的显着政策努力包括该报告(德国联邦运输和数字基础设施2017年),强调安全是主要目标。 规则10州

在自动化和连接的驾驶系统的情况下,先前唯一的责任将个人从驾驶者转移到技术系统的制造商和运营商以及负责采取基础设施,政策和法律决策的机构。

(参见下面的第2.10.1节)。 由此产生的德国和欧盟关于许可自动化驾驶的法律比他们的美国同行更具限制性,即“消费者的检测”是某些公司使用的策略 - 没有消费者或可能的受害者的知情同意。

2.7.2示例(b)自主武器

自动武器的概念相当陈旧:

例如,我们可能会推出能够复杂,远程侦察和攻击任务的完全自主陆地,海洋和航空公司推出完全自主的土地,海洋和航空器。 (DARPA 1983:1)

此提议被嘲笑为当时的“幻想”(Dreyfus,Dreyfus和Athanasiou 1986:IX),但现在是现实,至少对于更容易识别的目标(导弹,飞机,船舶,船舶,坦克等),但不是人类战斗人员。 反对(致命)自主武器系统(AWS或法律)的主要论点是他们支持法外杀戮,承担从人类的责任,并更有可能 - 有关详细的问题清单,使战争或杀戮更有可能看看LIN,BEKEY和ABNEY(2008年:73-86)。

看来,降低使用这种系统的障碍(自主车辆,“火灾和忘记”导弹或装载有爆炸物的无人机)并降低被持有的责任的可能性会增加他们使用的可能性。 一方面可以用棘手杀死的关键不对称,因此很少有原因不这样做,已经存在于具有遥控武器的传统无人造战争中(例如,美国在巴基斯坦)中存在。 很容易想象一个搜索,识别,杀死个人人类的小无人机 - 或者是一种人类。 这些是由活动提出的案件,以阻止杀手机器人和其他活动群体。 有些人似乎相当于说自主武器确实是武器......和武器杀害,但我们仍然将它们成为巨大的数字。 关于问责制问题,自治武器可能会识别和起诉负责任的代理人更加困难 - 但是这尚不清楚,因为可以在传统的战争中保持数字记录。 分配惩罚的难度有时被称为“康复差距”(Dananher 2016a)。

另一个问题是在战争中使用自主武器是否会使战争变得更糟,或者使战争变得不那么糟糕。 如果机器人在战争中减少战争罪和犯罪,那么答案可能是积极的,已被用作有利于这些武器的论据(Arkin 2009;Müller2016a),但也是对他们的争论(Amoroso和Tamburrini 2018)。 可以说,主要威胁不是在传统战争中使用这种武器,而是在不对称的冲突或非国家代理人,包括犯罪分子。

据说,自主武器不能符合国际人道主义法,这需要遵守军事冲突(A. Sharkey 2019)的差异(战斗人员和平民),比例(武力)和军事必需品(武力)的原则(A. Sharkey 2019)。 确实,战斗人员和非战斗人员之间的区别很难,但民用和军事船舶之间的区别很容易 - 所以这一切都说,如果他们确实违反人道主义法,我们不应该建造和使用这种武器。 被自主武器杀死的额外担忧威胁着人类尊严,但即使是禁止这些武器的捍卫者似乎也说这些不是良好的论据:

还有其他武器和其他技术,也妥协了人类的尊严。 鉴于这一点,概念中固有的含糊不清,它令人聪明地在反对AWS的论点中汲取几种类型的反对,而不是完全依赖人类尊严。 (A. Sharkey 2019)

在武器的军事指导下,在武器的军事指导中保持了很多人的“在循环中” - 这些方法阐述了“有意义的控制”(Santoni de Sio和Van Den Hhoven 2018)。 已经讨论了分配自治武器杀害的责任的困难,并提出了“责任差距”(尤其是罗伯斯2007),这意味着人类和机器都可能是负责任的。 另一方面,我们不认为对于每个事件都有人负责该事件,而实际问题可能是风险分配(Simpson和Müller2016)。 风险分析(Hansson 2013)表示识别谁暴露于危险的风险至关重要,谁是潜在的受益人,并制定决定(Hansson 2018:1822-1824)。

2.8机器道德

机器伦理是机器的道德,为“道德机器”,机器,作为受试者的机器,而不是用于人类使用机器作为物体。 无论这是否应该涵盖所有AI伦理或成为其中的一部分 有时它看起来好像在这里播放的(可疑)推断,如果机器以道德相关的方式行动,那么我们需要机器道德。 因此,一些使用更广泛的概念:

机器道德涉及确保机器对人类用户的行为以及其他机器也是道德上可接受的。 (安德森和安德森2007:15)

例如,这可能包括产品安全的事项。 其他作者声音相当雄心勃勃,但使用较窄的概念:

AI推理应该能够考虑到社会价值观,道德和道德考虑; 衡量不同利益相关者在各种多元文化背景下持有的各自优先事项; 解释它的推理; 并保证透明度。 (Dignum 2018:1,2)

机器道德中的一些讨论使得机器可以在某种意义上成为负责其行为的道德代理人或“自治德国”(见Van Wynsberghe和Robbins 2019)。 机器道德的基本思想现在发现了它进入实际机器人的方法,其中这些机器是在任何实质性意义上的人工道德试剂的假设(Winfield等,2019)。 有时观察到,可以很容易地修改被编程为遵循道德规则的机器人以遵循不道德的规则(Vanderelst和Winfield 2018)。

机器道德可能采取“法律”形式的想法是由ISAAC Asimov的ISAAC Asimov,他提出的“三个机器人法律”(Asimov 1942)而调查了“法律”(Asimov 1942):

第一法 - 机器人可能不会伤害人类,或者通过无所作为,让人类造成伤害。 第二项法律 - 一个机器人必须遵守人类给予的订单,除非此类订单与第一法发生冲突。 第三律 - 只要这种保护与第一或第二法律不冲突,机器人必须保护自己的存在。

Asimov然后在许多故事中显示了这三个法律之间的冲突将使您的分层组织尽管使用它们的情况会产生问题。

尚不清楚“机器伦理”存在一致的概念,因为较弱的版本有危险的危险,无法将“具有通常被认为是足够的”的概念“(例如,没有”反射“或甚至没有”行动“); 朝向人工道德代理移动的更强大观点可以描述目前空的集合。

2.9人工道德代理商

如果一个人伦理涉及道德药物,在某种程度上,这些代理商可以称为“人工道德代理商”,具有权利和责任。 然而,关于人工实体的讨论挑战了许多伦理中的常识概念,了解从人类案例的抽象中的陈述(CF. Misselhorn 2020;动力和Ganascia即将到来)非常有用。

若干作者使用“人工道德代理人”在一个苛刻的苛刻意义上,从软件工程中使用“代理”借用,在这种情况下,不会出现责任和权利问题(Allen,Var员和Zinser 2000)。 James Moor(2006)区分了四种机器代理:道德冲击剂(例如,机器人骑行者),隐含的道德药物(例如,安全自动驾驶仪),明确的伦理剂(例如,使用正式方法估计效用)和全面的道德代理人(世界卫生组织)可以明确伦理判断,一般都是有能力合理地证明它们。平均成年人是一个完整的道德药物“。)已经提出了达到”明确“或”完整“道德药物的几种方法,通过编程(运营道德),通过”开发“道德本身(功能道德),终于具有完全智能和感知的全面道德(艾伦,SMIT和Wallach 2005; Moor 2006)。 程序化的代理有时不被视为“完整”代理,因为它们是“没有理解的竞争力”,就像大脑中的神经元(Dennett 2017; Hakli和Mäkelä2019)。

在一些讨论中,“道德患者”的概念发挥作用:道德药剂有责任,而道德患者有权利,因为伤害他们很重要。 似乎有些实体是患者而不是药剂,例如,可以感觉疼痛但无法做出合理的选择的简单动物。 另一方面,通常理解,所有剂也将是患者(例如,在康德框架中)。 通常,作为一个人应该是一个使实体成为一个负责任的代理人,可以有职责的人,并且是道德问题的对象。 这样的个性通常是与现象意识,意图和自由意愿相关的深刻概念(法兰克福1971; Sweeson 1998)。 Torrance(2011)建议“人造(或机器)道德可以被定义为设计机器,这些机器做了人类,当人所做的事情,都表明在那些人类中拥有”道德地位“”(2011:116) - 他认为是“道德”生产力和道德接受性“(2011:117) - 道德药物和患者的表达。

2.9.1机器人的责任

责任,责任和法治是在新技术面前维护的基本要求(欧洲科学和新技术的伦理组织2018年,18),但机器人的问题是如何完成和如何完成可以分配责任。 如果机器人行为,他们本身会对他们的行为负责,责任或负责吗? 或者如果风险分配也许优先于讨论责任?

传统的责任分配已经发生:汽车制造商负责汽车的技术安全,驾驶员负责驾驶,机械师负责适当的维护,公共当局负责道路的技术条件等。一般而言

基于AI的决策或行动的影响通常是许多演员之间无数互动的结果,包括设计师,开发人员,用户,软件和硬件。......与分布式机构进行了分布式责任。 (Taddeo和佛罗里达州2018:751)。

如何发生这种分布不是特定于AI的问题,但在此上下文中获得了特定的紧迫感(Nyholm 2018A,2018B)。 在古典控制工程中,分布式控制通常通过这些层次结构的控制层次结构加上控制循环实现。

2.9.2机器人的权利

一些作者表示,应该认真考虑当前机器人是否必须被分配权利(Gunkel 2018a,2018b; Danaher即将到来; Turner 2019)。 这个职位似乎依赖于对对手的批评以及机器人和其他非人有时被视为拥有权利的实证观察。 在这静脉中,提出了一种“关系转弯”:如果我们与机器人有关,因为他们有权利,那么我们可能会得到很好的建议不要搜索他们的“真的”有权(Coeckelbergh 2010,2012,2018)。 这提出了这一问题,这种反现实主义或准现实主义可以走多远,以及它意味着说“机器人有权”,以人为本的方法(Gerdes 2016)。 在辩论的另一边,Bryson坚持认为,机器人不应享受权利(Bryson 2010),尽管她认为这是一种可能性(Gunkel和Bryson 2014)。

无论机器人(或其他AI系统)是否应赋予“法律实体”或“法人”或“法人”的状态,也有完全单独的问题,而且还有国家,企业或组织是“实体”,即他们可以具有法律权利和职责。 欧洲议会已经考虑向机器人分配此类地位,以处理民事责任(2016年欧盟议会; Bertolini和Aiello 2018),但不是刑事责任 - 这是为自然人保留的。 还可以仅为机器人分配一个权利和职责子集。 有人说,“这种立法行动将在道德上不必要的和合法麻烦”因为它不会享受人类的利益(Bryson,Diamantis,并授予2017:273)。 在环境伦理中,关于树木等自然物体的合法权利(C. D. Stone 1972)存在长期讨论。

还有说,在未来发展机器人或人工道德患者的机器人的原因是道德怀疑(Van Wynsberghe和Robbins 2019)。 在“人工意识”的社区中,研究人员有一个重要的问题是造成这种意识的道德,因为创造它可能会暗示对众生的道德义务,例如,例如,不要伤害它,而不是通过切换它而不是结束它的存在作者所要求的“暂停合成现象学”(Bentley等,2018:28F)。

2.10奇点

2.10.1奇点和高层

在某些季度,目前AI的目的被认为是一个“人为普通情报”(AGI),与技术或“狭义”AI形成鲜明对比。 AGI通常与AI的传统概念区别为一般目的系统,以及Searle的“强壮AI”的概念:

鉴于合适的程序可以说,可以说,可以说是理解和拥有其他认知状态。 (Searle 1980:417)

奇异性的想法是,如果人工智能的轨迹达到具有人类智能的系统,那么这些系统本身就可以开发出于超过人类智力的AI系统,即它们是“超级智力”(见下文)。 此类超级智能AI系统将迅速自我改善或发展更智能的系统。 达到超级智力AI后的这种事件急剧转向是“奇点”,AI的发展是从人类对照中且难以预测(Kurzweil 2005:487)。

担心“我们创造的机器人将接管世界”甚至在有计算机(例如巴特勒1863)之前捕获了人类的想象力,并且是Čapek着名戏剧中介绍了“机器人”这个词(Čapek1920)的中央主题。 这种恐惧首先将现有AI的可能轨迹制定为Irvin的“情报爆炸”:

让超细管被定义为一个机器,远远超过任何人的所有智力活动的机器。 由于机器的设计是这些智力活动之一,超细机器可以设计更好的机器; 然后将无可争议地成为“情报爆炸”,人们的智慧将被遗忘。 因此,第一个超细机是人类需要制造的最后一个发明,只要机器是可维护的,足以告诉我们如何将其保持在控制下。 (良好1965:33)

Kurzweil(1999,2005,2012)阐述了加速到奇点的乐观论证,基本上指出了计算能力是指数级增强的,即加倍CA. 自1970年以来每2年按照“摩尔法”的晶体管数量,并将继续这样做。 他预测(Kurzweil 1999),到2010年超级计算机将达到人类计算能力,到2030年“思想上传”是可能的,并且到2045年将发生“奇点”。 Kurzweil谈论计算能力的增加,可以在给定的成本上购买 - 但当然近年来AI公司的资金也有所增加:Amodei和Hernandez(2018年[oIr])因此估计了多年来2012-2018培训特定AI系统的实际计算能力每增加3.4个月,导致300,000倍的增加 - 而不是每两年加倍的7倍增加。

这个参数的常见版本(Chalmers 2010)谈到AI系统(而不是原始计算能力)的“智能”增加,但“奇点”的关键点仍然是AI系统接管AI的进一步发展并加速超越人类水平。 Bostrom(2014)详细解释了这一点会发生什么以及人性的风险。 讨论总结在伊甸园等人。 (2012); 阿姆斯特朗(2014); Shanahan(2015)。 除了计算能力增加之外,有可能的路径可以增加,例如,计算机上的人类大脑的完全仿真(Kurzweil 2012; Sandberg 2013),生物路径或网络和组织(Bostrom 2014:22-51)。

尽管鉴定了“智能”处理能力的明显弱点,但Kurzweil似乎是正确的,人类倾向于低估指数增长的力量。 迷你测试:如果您以这样的方式走过步骤,即每一步是之前的一倍,从一米的步骤开始,您可以获得30步? (答案:几乎比地球唯一的永久性天然卫星进一步近3次。 实际加速及其速度(Müller和Bostrom 2016; Bostrom,Dafoe和Flynn即将举行); Sandberg(2019)认为,进展将持续一段时间。

(本章完)

相关推荐