人工智能与机器人的伦理(二)

虽然欧盟一般数据保护条例(规例(欧盟)2016/679)加强了隐私保护,但美国和中国更加倾向于减少监管(汤普森和2018年)的增长,这可能是这一目标提供了竞争优势。 很明显,国家和商业行为者提高了他们在AI技术的帮助下提高了侵犯隐私和操纵人民的能力,并将继续进一步这样做,以进一步实现他们的特殊兴趣 - 除非政策依据普通社会的利益。

2.3 AI系统的不透明度

不透明度和偏见是现在有时称为“数据伦理”或“大数据伦理”(佛罗里达州和Taddeo 2016; Mittelstadt和Floridi 2016)中的核心问题。 AI系统为自动决策支持和“预测分析”提高了对缺乏正当程序,问责,社区参与和审计的重大担忧(Whittaker等,2018:18FF)。 它们是电力结构的一部分,其中“我们正在制定限制和限制人类参与机会的决策过程”(Danaher 2016b:245)。 与此同时,受影响的人往往是不可能知道该系统如何实现该输出,即,该系统对该人“不透明”。 如果系统涉及机器学习,即使是专家也将不知道如何识别出特定模式,甚至是模式的。 决策系统和数据集中的偏差被这种不透明度加剧了。 因此,至少在存在欲望去除偏见的情况下,透露度和偏见的分析齐头并进,政治反应必须一起解决两个问题。

许多AI系统依赖于(模拟)神经网络中的机器学习技术,这些技术将从给定数据集中提取模式,提供或不提供“正确”解决方案; 即,监督,半监督或无人监督。 利用这些技术,“学习”捕获数据中的模式,这些模式以对系统所做的决定似乎有用的方式标记,而编程器并不真正知道系统使用的数据中的模式。 实际上,程序正在不断发展,因此当新数据进入或给出新的反馈(“这是正确的”时,“这是不正确的”),学习系统使用的模式改变。 这意味着结果对用户或程序员来说并不透明:它是不透明的。 此外,程序的质量大量取决于提供的数据的质量,遵循旧的口号“垃圾,垃圾出局”。 因此,如果数据已经涉及偏见(例如,关于嫌疑人的皮肤颜色的警察数据),那么该计划将重现这种偏差。 有关“数据表”中数据集的标准描述的建议,这将使这种偏差更加可行(Gebru等,2018 [oir])。 最近近期有关基本上复杂数据过滤器的机器学习系统的局限性的重要文献(Marcus 2018 [oIr])。 有些人认为,今天的道德问题是技术“捷径”艾的结果(Cristianini即将到来)。

从(van Lent,Fisher和Mancuso 1999开始,有几个技术活动瞄准“解释的AI”; Lomas等,2012年),更近,DARPA计划(Gunning 2017 [oIr])。 更广泛地,需求

一种用于阐明和阐述功率结构,偏差和影响的机制,在社会中锻炼(Diakopoulos 2015:398)

有时被称为“算法问责制报告”。 这并不意味着我们预计AI将“解释其推理” - 因此需要比目前归因于AI系统的更严重的道德自主权(见下文§2.10)。

政治家亨利基辛格指出,如果我们依赖于据称优于人类的系统,但是无法解释其决定,那么民主决策就会有一个根本问题。 他说我们可能已经“寻找一个潜在的主导技术寻找指导哲学”(基辛格2018年)。 丹娜赫(2016b)称这个问题“采用了从Aneesh 2002 [oir],2006)的”采用以前使用“侵入性”的使用“的威胁”。 在类似的静脉中,洞穴(2019)强调,我们需要更广泛的社会迈向更多的“民主”决策,以避免AI在公共行政和其他地方导致Kafka风格的冒险制度。 奥尼尔在她有影响力的数学毁灭武器(2016年)和杨和小屋(2019年)的武器中受到了强调的政治角度。

在欧盟中,有一些这些问题(法规(欧盟)2016/679)已经考虑过(欧盟)2016/679),这些问题预见到消费者,当面对基于数据处理的决定时,将有一个合法的“解释权” - 这是远程的,这是迄今为止的可以强制执行争议(Goodman和Flaxman 2017; Wachter,Mittelstadt和Floridi 2016; Wachter,Mittelstadt和Russell 2017)。 Zerilli等。 (2019年)认为,尽管人类有时没有达到该标准,我们可能在此处有一个双重标准,我们要求对基于机器的决定进行高度解释。

2.4决策系统中的偏差

自动AI决策支持系统和“预测分析”在数据上运行并产生“输出”的决定。 该输出可能从相对普遍的重要性到高度重要:“这家餐厅与您的偏好相匹配”,“这种X射线的患者已经完成骨骼生长”,“施用信用卡下降”,“供体器官将被给另一名患者”,“保释被拒绝”或“目标”确定和订婚“。 数据分析通常用于商业,医疗保健和其他领域的“预测分析”,预见到来 - 由于预测更容易,因此也将成为更便宜的商品。 一种预测的使用是“预测政策”(Nij 2014 [oIr]),许多恐惧可能导致公众自由的侵蚀(2017年Ferguson),因为它可以从预测行为的人那里消除权力。 然而,它出现了许多关于警务的担忧依赖于未来主义情景,执法预见并惩罚计划行动,而不是等待犯罪(如2002年电影“少数群体报告”)。 一个问题是,这些系统可能会使已经在用于建立系统的数据中的偏见,例如,通过增加一个地区的警察巡逻并在该地区发现更多犯罪。 实际“预测警务”或“情报LED警务”技术主要涉及最多需要警察部队的问题。 此外,警察可以提供更多数据,在工作流支持软件(例如“ArcGIS”)中,提供更多的数据,提供更好的控制和促进更好的决策。 无论这是否有问题取决于这些系统技术质量的适当信任程度,以及对警察本身的目标的评估。 也许最近的纸张标题在此处右方向:“可预测政策的伦理:从威胁模型到护理道德”(Asaro 2019)。

偏差通常是表面,因为不公平的判断是因为个人制造判断的人受到实际与手头的物质无关的特征的影响,通常是关于组成员的歧视性先入解。 因此,一种形式的偏见是一个人的学习认知特征,通常不是明确的。 有关人员可能不会意识到有偏见 - 他们甚至可以诚实地和明确反对他们发现的偏见(例如,通过启动,CF.Graham和Lowery 2004)。 在机器学习中的公平与偏见,参见Binns(2018)。

除了学习偏见的社会现象外,人类认知系统通常易于具有各种“认知偏见”,例如“确认偏见”:人类倾向于将信息解释为确认他们已经相信的内容。 这种第二种形式的偏见常常被认为妨碍了理性判断的性能(Kahnemann 2011) - 虽然至少一些认知偏差产生了进化的优势,例如,用于直观判断的经济利用。 有一个问题是AI系统是否可以或应该具有这种认知偏见。

当它表现出系统误差时,例如“统计偏见”,第三种形式的偏差存在于数据中。 严格的是,任何给定的数据集只能为单一问题取消偏见,因此仅仅创建数据集涉及它可能用于不同类型的问题的危险,然后结果为此。 基于此类数据的机器学习将不仅无法识别偏差,而且对“历史偏见”进行编码和自动化。 在亚马逊的自动招聘筛查系统中发现了这种历史偏见(2017年初停止),歧视妇女 - 可能是因为公司有歧视招聘过程中妇女的历史。 “惩戒罪犯管理分析替代制裁”(Compas),一个预测被告是否会被重新冒犯的系统,被发现是成功的(准确性为65.2%)作为一组随机人类(Temsel和Farid 2018)并产生更虚假黑人被告的积极因素和较少的虚假否定。 因此,这种系统的问题因此,偏差加人们在系统中放置过度信任。 在Eubanks(2018年)调查了美国此类自动化系统的政治方面。

有重大的技术努力来检测和移除AI系统的偏见,但是说这些是早期阶段:看英国伦理AI和机器学习研究所(Brownsword,Scotford和Yeung 2017; Yeung和Lodge 2019)。 看来技术修复有他们的限制,因为他们需要一个公平的数学概念,这很难通过(Whittaker等,2018:24FF; Selbst等,2019),正是“种族”的正式概念(见Benthall和海恩斯2019)。 机构提案是(VEALE和Binns 2017)。

2.5人机互动

人体机器人互动(HRI)是一个学术领域,其右侧是一个学术领域,现在对伦理事项进行重大关注,双方的感知动态以及社会背景中存在的不同利益以及包括合作的不同兴趣(例如,,阿诺德和Scheutz 2017)。 用于机器人的道德规范的有用调查包括Calo,Freomkin和Kerr(2016); 罗伊亚克斯和班斯特(2016年); Tzafestas(2016年); 标准的文件集合是林,Abney和Jenkins(2017年)。

虽然AI可以用来操纵人类,以相信和做事(参见第2.2节),但它也可以用于驱动有问题的机器人,如果他们的进程或外表涉及欺骗,威胁人类尊严或违反“尊重的康奈要求”人性“。 人类非常容易将心理属性归因于对象,并与它们同情,特别是当这些对象的外观类似于生物的外观时。 这可用于欺骗人类(或动物),归因于对机器人或AI系统的更具智力甚至情绪意义,而不是他们应得的。 在这方面,人形机器人的某些部分在这方面存在问题(例如,Hiroshi Ishiguro的遥控的头原),并且存在对公共关系目的显然欺骗的情况(例如,汉森的能力机器人“索菲亚”)。 当然,商业道德和法律的一些相当基本的制约因素适用于机器人:产品安全和责任,或广告中的非欺骗。 似乎这些现有的限制会照顾所提出的许多问题。 然而,存在人类互动的情况下,人类的互动具有以特定人类出现的方面,这些方面可能不会被机器人所取代:关心,爱和性。

2.5.1示例(a)护理机器人

用于人类在医疗保健中的机器人目前处于实际环境中的概念研究水平,但它可能成为几年的可用技术,并为缺陷人类护理(A. Sharkey和N.Sharkey 2011)提出了一些令人担忧的疑虑Robert Sparrow 2016)。 目前的系统包括支持人类护理人员/护理人员的机器人(例如,在提升患者或运输材料中),使患者能够自己做一些事情(例如,用机器人手臂吃),而且还给予患者作为公司和舒适的机器人(例如,“Paro”机器人密封)。 有关概述,请参阅van Wynsberghe(2016); Nørskov(2017年); Fosch-Villaronga和Albo-Conals(2019),用于对用户进行调查DRAPER等人。 (2014)。

为什么护理问题已经出现的一个原因是人们认为我们需要在老化社会中需要机器人。 这一论点是有问题的假设,即寿命更长的人需要更多的照顾,并且不可能吸引更多人类的关怀专业。 它也可能表现出关于年龄的偏见(杰克即将到来)。 最重要的是,它忽略了自动化的本质,这并不简单地替代人类,而是允许人类更有效地工作。 这不是很明显,这里有一个问题,因为讨论主要侧重于对机器人的恐惧,但实际和可预见的机器人都是护理的辅助机器人,用于技术任务的经典自动化。 因此,它们只是在行为在护理环境中执行任务的行为感,而不是在患者的人类“关心”的意义上。 看来“被关心的”成功依赖于这种有意的“护理”,可预见的机器人无法提供。 如果有的话,机器人的风险是缺乏这种故意护理 - 因为可能需要较少的人类护理。 有趣的是,关心某种东西,即使是虚拟代理人,也可以为护理人员自己(Lee等,2019)。 假装护理的系统将是欺骗性的,因此有问题 - 除非通过足够大的效用增益(2016年)抵消欺骗来抵消。 一些机器人假装在基本水平上“关心”(Paro Seal),其他机器人在制作中。 也许在一定程度上被机器照顾的感觉是患者的进展。

2.5.2示例(b)性机器人

它已被几个技术乐观主义者争论,人类可能对机器人的性别和陪伴感兴趣,并对这个想法感到舒服(2007年的征验)。 鉴于人类性偏好的变化,包括性玩具和性娃娃,这似乎很可能:问题是这些设备是否应制造和促进,以及是否应该在这一触摸区域内限制。 它似乎曾迁移到最近的“机器人哲学”的主流(Sullins 2012; Danaher和Mcarthur 2017; N. Sharkey等,2017 [oIr];孟德林2018年)。

人类长期以来对物品的情感依恋深厚,所以可能伴随着可预测的Android是有吸引力的,尤其是与实际人类斗争的人,并且已经更喜欢狗,猫,鸟,电脑或Tamagotchi。 丹纳赫(2019B)反对(Nyholm和Frank 2017)认为这些可能是真正的友谊,因此是一个有价值的目标。 它当然看起来这样的友谊可能会增加整体效用,即使缺乏深度。 在这些讨论中,存在欺骗问题,因为机器人不能(目前)意味着它所说的,或者对人类有感情。 众所周知,人类倾向于将感受和思想归因于表现得好像有感知的实体,甚至可以明确地无生命的物体,这些物体根本没有行为。 此外,支付欺骗似乎是传统性产业的基本一部分。

最后,有担忧通常伴随性别,即同意(Frank和Nyholm 2017),审美问题,以及人类可能被某些经历“腐败”的担忧。 旧式虽然这似乎可能似乎,人类的行为受到经验的影响,色情或性机器人可能支持对其他人类的看法,只是欲望的对象,甚至是虐待者的接受者,从而毁了一种更深层次的性和色情经验。 在这静脉中,“反对性机器人的运动”认为,这些设备是奴隶制和卖淫的延续(Richardson 2016)。

2.6自动化和就业

似乎很明显,AI和机器人能否导致生产力的显着增长,从而导致整体财富。 提高生产力的企图往往是经济的特征,尽管重点是“增长”是一种现代现象(Harari 2016:240)。 然而,通过自动化的生产率通常意味着相同输出需要更少的人类。 然而,这并不一定意味着整体就业的损失,因为可用财富增加,这可以增加需求充分以抵消生产力增益。 从长远来看,工业社会的更高生产率导致了更多的财富。 过去发生了主要的劳动力市场中断,例如,在1800年,农业雇用超过60%的劳动力员工员工,而2010年才能雇用加利福尼亚州。 欧盟5%,甚至在最富有国家(2013年欧盟委员会)。 在1950年至1970年间20年,英国的雇用农业工人数量减少了50%(Zayed和2019年)。 其中一些中断导致更多的劳动密集型产业迁移到劳动力成本较低的地方。 这是一个正在进行的过程。

经典自动化取代了人体肌肉,而数字自动化取代了人类思维或信息处理 - 与物理机器不同,数字自动化非常便宜(Bostrom和Yudkowsky 2014)。 因此,这可能意味着劳动力市场的更加激进的变化。 那么,主要问题是:这次效果会有所不同吗? 创造新的就业和财富是否会随着就业机会的破坏而跟上? 即使它没有什么不同,过渡成本是什么,谁忍受了他们? 我们是否需要对数字自动化的成本和益处进行公平分配,使社会调整进行?

对AI失业问题的回应从令人惊叹的(Frey和Osborne 2013; Westlake 2014)到中立(Metcalf,Keller和Boyd 2016 [oIr]; Calo 2018; Frey 2019)乐观(Brynjolfsson和McAfee 2016; Harari 2016; Danaher 2019a)。 原则上,自动化的劳动力市场效果似乎相当得很好地理解为涉及两个渠道:

(i)不同熟练工人与影响劳动需求的新技术之间的相互作用的性质和(ii)通过随后的劳动力供应和产品市场的变化,技术进步的均衡影响。 (GOOS 2018:362)

由于AI和机器人自动化是“工作极化”或“哑铃”形状(GOOS,Manning和Salomons 2009)的结果,目前似乎发生了什么样的劳动力市场(Goos,Manning和Salomons 2009):高技能的技术工作是需求和高度付出代价,低熟练的服务乔布斯有所要求,糟糕的支付,但工厂和办公室中的中等资格工作,即大多数工作都是压力和减少,因为它们相对可预测,并且最有可能是自动化的(鲍德温2019年)。

也许巨大的生产力增益将允许“休闲年龄”实现,某些东西(凯恩斯1930)预计发生在2030年左右,假设每年1%的增长率为1%。 实际上,我们已经达到了2030年预期的水平,但我们仍然努力消耗更多,发明更多的组织。 Harari解释了这种经济发展如何使人类克服饥饿,疾病和战争 - 现在我们的目标是不朽和永恒的幸福通过AI,因此他的头衔(Harari 2016:75)。

一般而言,失业问题是一个社会在社会中应该依赖的商品的问题。 标准观点是,分配正义应该是合理的,从后面的“无知面纱”(Rawls 1971),即,好像一个人在一个社会中实际上是什么(劳动者或工业主义等)。 Rawls认为选择的原则将支持基本的自由和对社会最不利的成员最大的好处。 似乎AI经济有三个功能,使这种正义不太可能:首先,它在一个大量不受管制的环境中运作,责任往往很难分配。 其次,它在有一个“获胜者采取所有”功能的市场中运作,垄断迅速发展。 三是数字服务行业的“新经济”是基于无形资产,也称为“无资本主义”(Haskel和Westlake 2017)。 这意味着难以控制不依赖于特定位置的物理工厂的跨国数字公司。 这三个特征似乎表明,如果我们将财富分配到自由市场力量,结果将是一个重大不公正的分布:这确实是我们已经看到的发展。

一个有趣的问题没有得到太多关注的是,AI的发展是否是环保的:与所有计算系统一样,AI系统产生浪费,非常难以回收,并且它们消耗了大量的能量,特别是对于机器学习系统的培训(甚至为“挖掘”)加密货币)。 同样,似乎在这种空间中的一些演员卸载了普通社会的成本。

2.7自治系统

自治系统讨论中有几个自主权概念。 更强大的概念涉及哲学辩论,自治是责任和人格的基础(Christman 2003 [2018])。 在这种情况下,责任意味着自治,但不负相,因此在不提高责任问题的情况下,可以有技术自主程度。 机器人中的自主权较弱的较弱是相对的和渐进的:据说一个系统在某一定程度上对人体控制进行自主(Müller2012)。 这里有一个平行的偏见问题和AI的不透明度,因为自主性也涉及权力关系:谁控制着,谁是责任?

(本章完)

相关推荐