人工智能与机器人的伦理(完结)
在这场辩论中的参与者是通过理论意义上的技术来团结一致,因为他们预计技术要迅速发展,并引起广泛欢迎改变 - 但除此之外,他们将分为专注于福利(例如Kurzweil)和那些专注于风险的人(例如,那些,Bostrom)。 这两个阵营都同情了“Transhuman”以不同的物理形式为人类的生存观点,例如,上传在计算机上(Moravec 1990,1998; Bostrom 2003a,2003c)。 他们还认为在各种方面的“人类增强”的前景,包括智力 - 经常被称为“IA”(情报增强)。 可能是未来的AI将用于人类增强,或者将进一步促进整齐定义的人单身人士的溶解。 Robin Hanson提供了详细的猜测,了解人类“脑仿真”,以便人类“脑仿真”实现真正智能机器人或“EMS”(Hanson 2016)。
来自超明风险的论点需要假设超明并不意味着仁慈 - 与康德在伦理中的伦理传统争论,这些伦理在争论更高层次的合理性或情报层面将会更好地了解道德和更好的行为能力在道德上(改良1978; 2010:36F)。 来自高层风险的争论表示,合理性和道德是完全独立的维度 - 这有时明确地认为是“正交论文”(Bostrom 2012; Armstrong 2013; Bostrom 2014:105-109)。
对奇点叙事的批评已从各种角度提出。 Kurzweil和Bostrom似乎假设智力是一维的财产,并且在数学意义上完全订购了一套智能代理商 - 但在他们的书中没有任何长度讨论智能。 一般来说,这很公平地说,尽管有一些努力,但尚未详细研究了在高智慧和奇点的强大叙述中所做的假设。 一个问题是,这种奇点是否会发生 - 这可能是概念上的不可能,几乎不可能或可能只是因为偶然事件而无法发生,包括积极预防的人。 哲学上,有趣的问题是奇点是否只是一个“神话”(佛罗里达州2016年;疯子2017年),而不是实际AI研究的轨迹。 这是从业者经常假设的东西(例如,布鲁克斯2017 [oir])。 他们可能会这样做,因为他们担心公共关系反弹,因为他们高估了实际问题,或者因为他们有充分的理由认为,过度理由是目前的AI研究中不太可能的结果(Müller即将到来的-A)。 这种讨论提出了关于“奇点”的关注,这是一个关于基于人类恐惧的虚构AI的叙述。 但即使一个人发现了引人注目的负面原因和不太可能发生的奇点,仍然可能会出现错误的可能性。 哲学不是关于“科学的安全路径”(康德1791:B15),也许Ai和机器人不是(Müller2020)。 因此,讨论奇异性非常高的奇冲击风险,即使一个人认为这种奇点发生的概率也非常低。
2.10.2过度智能的存在风险
在长期内思考过度智能化提出了超智能的问题,无论是高层可能导致人类物种的灭绝,称为“存在风险”(或XRISK):超智能系统可能很好地与人类存在冲突的偏好在地球上,因此可以决定结束存在 - 并给出他们的优越智慧,他们将有权力这样做(或者他们可能恰好结束它,因为他们不是真的在乎)。
长期思考是这种文献的关键特征。 奇点(或其他灾难事件)是否发生在30或300或3000年中并不重要(Baum等,2019)。 也许甚至有一个天文模式,使得智能物种必将在某些时候发现AI,从而带来自己的消亡。 这种“伟大的过滤器”会有助于解释“费米悖论”为什么没有已知的宇宙中的生命迹象,尽管它的兴起很高。 如果我们发现“伟大的过滤器”领先于我们,而不是地球已经过去的障碍是坏消息。 这些问题有时会更加狭隘地涉及人类灭绝(Bostrom 2013),或者更广泛地涉及物种的任何巨大风险(REES 2018)-OF,哪种ale只是一个(Häggström2016; ord 2020)。 Bostrom还使用“全球灾难性风险”类别,以获得足够高度的“范围”和“严重性”(Bostrom和“2011年的”Bostrom和“2013年)的危险的风险。
这些风险的讨论通常没有与风险下的伦理的一般问题相连(例如,Hansson 2013,2018)。 长期观点有自己的方法论挑战,但已经产生了广泛的讨论:(Tegmark 2017)互惠生命和人类生活“3.0”,而罗素,杜威和Tegmark(2015年)和波斯特罗姆,大法Flynn(即将举行)在伦理AI中调查长期政策问题。 几篇论文收集已经调查了人工综合情报(AGI)的风险以及可能使这一发展的因素或多或少地满足风险(Müller2016B; Callaghan等,2017; yampolskiy 2018),包括非政府AI的发展(雷克塞勒2019年)。
2.10.3控制过度明智?
在一个狭义的意义上,一旦它是超级智力(Bostrom 2014:127FF),我们将如何留下对AI系统的控制。 在更广泛的感觉中,根据人类感知(Russell 2019),我们如何确保AI系统将如何确保AI系统将成为积极的问题; 这有时被称为“值对齐”。 控制过度智能化的容易或难以显着取决于“起飞”到超智能系统的速度。 这导致了具有自我改善的系统,例如alphazero(Silver等人2018)。
这个问题的一个方面是我们可能决定某个特征是可取的,但是发现它有不可预见的后果,这是如此消极的,毕竟我们不会想要这种特征。 这是迈达斯国王的古代问题,他们希望他触及的所有人都变成了黄金。 已经在各种示例之外讨论了该问题,例如“纸夹最大化器”(Bostrom 2003b)或用于优化国际象棋性能的程序(Omohundro 2014)。
关于超智细节的讨论包括关于无数生物的猜测,基本上改变“后一天”,以及通过我们目前的身体形态的超越的不朽的承诺 - 有时他们有明确的宗教卧室(Capurro 1993; Geraci 2008,2010; O'Connell 2017:160FF)。 这些问题也构成了认识论的众所周知的问题:我们可以知道无所不知的方式(丹娜赫2015)吗? 通常的对手已经出现了:无神论者的特征反应是
人们担心电脑会变得太聪明,接管世界,但真正的问题是他们太愚蠢了,他们已经占据了世界(Domingos 2015)
新的Nihilists通过信息技术解释了“技术催眠”现在已经成为我们丧失意义丧失的主要方法(Gertz 2018)。 因此,两个对手都认为,我们需要一个使用实际AI和机器人的“小”问题的道德规范(上面的第2.1到2.9节),并且对来自AI的存在风险的“重要伦理”不太需要(第2.10节)。
3.结束
因此,奇点再次引发了AI的概念。 自我纪律的开始以来,想象力或“愿景”(McCarthy等,1955 [oir]; Simon和Newell 1958),这是卓越的想象力。 对这一愿景的评估受到戏剧性的变化:在几十年中,我们从口号“AI是不可能的”(Dreyfus 1972)和“Ai只是自动化”(Lighthill 1973)到“AI将解决所有人问题”(Kurzweil 1999)和“AI可能会杀死我们所有人”(Bostrom 2014)。 这创造了媒体关注和公共关系的努力,但它也提出了这个“AI哲学和伦理”的问题,真的是AI而不是关于一个想象的技术。 正如我们所说的一开始,AI和机器人都提出了关于我们应该如何处理这些系统的基本问题,系统本身应该做些什么,以及他们长期的风险。 他们还将人类的人类挑战为地球上的智慧和主导物种。 我们已经看到已经提出的问题,并将不得不在早期观看技术和社会发展,以提高新问题,发展哲学分析,并了解哲学的传统问题。