人工智能(七)

读者陌生的文学中的读者可能会非常惊讶地吸引学习的学位,在学到的人中,这种假设事件不仅仅是认真对待,而且实际上已经成为广泛和常见哲学的目标[对于最近的思想思想的伪造之旅,见佛罗里达州(2015)]。 什么论点支持我们未来的信念? 此时有两个主要论点:熟悉的基于硬件的一个[Moravec冠军,如上所述,再次由Kurzweil(2006)更新); 而且 - 据我们所知 - 由Mathematician I. J. Good(1965)给出的原始论点。 此外,近期由Bostrom(2014)高级的最近和相关的DoomSayer参数,似乎预先假定了S会发生。 Chalmers(2010)的好的论点,被Chalmers(2010)调整,他肯定了这个参数的TidieD-Up版本,如下所示:

前提1:会有ai(由hi创建,这样ai = hi)。

前提2:如果有AI,则会有AI +(由AI创建)。

前提3:如果有Ai +,将有Ai ++(由Ai +创建)。

结论:将有Ai ++(= s会发生)。

在这个论点中,'ai'是人工智能的人工智能,由人类,'ai +'人工智能高于人类水平,以及'ai ++'超智力本构载体。主要过程大概是创造一类机器由另一类。 我们为人类智慧的方便“嗨”增加了; 核心观点是:嗨将创建AI,后者在与前者相同的智力水平; ai将创建ai +; AI +将创建AI ++; 随着升天期待,也可能永远进行,但随着众神的蚂蚁,任何速度都足够长。

该论点肯定似乎正式有效。 是它的三个房屋是真的吗? 承担这样一个问题会远远超出了这个条目的范围。 我们只指出了一类机器的概念创造了另一类机器,更强大的机器不是透明的机器,并且既不是良好的也不是哲学分析成熟的严格叙述。 (关于数学分析,其中一些存在。例如,它是众所周知,L级L的计算机器不能在更高级别的L'处创建另一台机器。例如,线性有界自动机无法创建图灵机。)

善意的论点是一个相当临床的空气; 关于AI ++类别的机器是否将是良性的,恶意或慷慨的任何内容。 许多人乐意填补了这个差距,黑暗,黑暗的悲观主义。 这里的基因座典型毫无疑问是Bill Joy(2000)的广泛阅读论文:“为什么未来不需要我们” 喜悦认为,人类竞争注定要注定,没有小部分,因为它忙于建立智能机器。 他写道:

21世纪的技术 - 遗传学,纳米技术和机器人(GNR) - 这是如此强大,他们可以产生全新的事故和滥用行为。 最危险的是,这些事故和滥用是在个人或小团体的范围内广泛广泛。 它们不需要大型设施或稀有原料。 仅知识将能够使用它们。

因此,我们不仅有可能的大规模杀伤性武器,而且能够实现知识的大规模杀伤(KMD),这种破坏性受到自我复制的力量大幅放大。

我认为这毫不夸张地说,我们在极端邪恶的进一步完善的尖端上毫无疑问,这是一种邪恶,其可能性远远超出了遗赠对国家遗产的大规模毁灭性武器,令人惊讶和可怕的极端人员。[43]

哲学家将对这一观点的论据感兴趣。 什么是快乐的? 嗯,没有小的原因,因为他的论文的注意力是,就像雷蒙德·库尔兹威尔(2000年)一样,快乐依赖于未造救的争论(Theodore Kaczynski)。 这一想法是,假设我们在建立智能机器方面取得成功,我们将为我们做大多数(如果不是全部)。 如果我们进一步允许机器为我们做出决策 - 即使我们留住对机器的监督 - ,我们最终将取决于我们必须完全接受他们决定的地步。 但即使我们不允许机器做出决策,这种机器的控制也可能被一个小精英举例来举办,他们将像不必要地看待那样的人类,因为机器可以做任何所需的工作(Joy 2000)。

这不是评估此论点的地方。 (已经说过,未经发布的unabomber和他的支持者推动的模式似乎似乎是完全无效的。事实上,许多读者无疑会让不确定没有这样的地方或者会存在,因为这里的推理是业余的。 那么,关于这个问题的专业哲学家的推理怎么样?

Bostrom最近涂上了一个可能的未来的非常黑暗的画面。 他指出“第一个超级化”可以具有能力

为了塑造地球源时生的未来,很容易有非拟人的最终目标,并且可能有乐于申请开放式资源收购的原因。 如果我们现在反映出人类的有用资源(如方便的原子),并且我们依靠更多的地方资源,我们可以看到结果很容易成为人类迅速变得灭绝的结果。 (第2014博士,第416页)

显然,这种论点中最脆弱的前提是“第一个超级智能”将确实到达。 在这里,也许是好的chalmers论点提供了基础。

Searle(2014)认为Bostrom的书是误导和从根本上误认为,我们不必担心。 他的理由是污垢 - 简单:机器没有意识; 博塞尔姆在谁的恶意机器的前景令人震惊; 恶意机器是根据定义有意识的机器; ergo,bostrom的论点不起作用。 Searle写道:

如果电脑可以飞行飞机,驱动汽车,并在国际象棋中获胜,谁在乎,如果它完全是不是感知? 但是,如果我们担心恶意激励的超理摧毁我们,那么恶意动机应该是真实的。 没有意识,没有可能是真实的。

在这里,在这里,它在这里的积极卓越的事情,即僧侣似乎没有意识到大多数AI工程师在我们提出和解释的AI的Aia视图的基础上,大多数AI工程师都是完美的内容来构建机器:视图根据哪种机器简单地图感受到行动。 在这个视图上,机器是否真的欲望并不重要; 重要的是,它是如何合适的,基于AI科学家如何与欲望相关联系。 一个具有压倒性的破坏性的自治机器,不自觉地“决定”杀死不会成为滋扰,因为真实,人类水平,机器缺席了机器。 如果AI可以播放国际象棋和危险的游戏!,它肯定可以扮演战争比赛。 就像一个人类失败者对棋子中的胜利机器都没有意识到这一点一样,这对机器杀死的人来说,这对人类来说几乎没有什么好处,以指出这些机器没有意识。 (有趣的是,欢乐论文的成因是与John Searle和Raymond Kurzweil的非正式谈话。根据快乐,Searle并不认为有很多令人担忧,因为他(而且)非常有信心明天的机器人无法意识到。[45])

我们有一些我们可以安全地对明天谈到的事情。 当然,禁止一些灾难性的事件(核或生物战,全球经济抑郁症,一个陨石砸到地球上等),我们现在知道AI将成功地生产人造动物。 由于即使是一些天然动物(骡子,例如,骡子)可以很容易地培训为人类工作,因此它将推出从考虑到我们的目的的人造动物,将部署为我们工作。 实际上,人类目前所做的许多工作肯定会通过适当编程的人造动物来完成。 为了选择任意的例子,很难相信将来不会人为的商业司机。 (实际上,戴姆勒已经在运行商业广告中,他们推出了汽车的能力“自主”,允许这些车辆的人类居住者忽视道路和阅读。)其他例子将包括:清洁剂,邮件运营商,文职人员,军事侦察员,外科医生和飞行员。 (对于清洁剂,可能是大量读者,在这一刻,有机器人来自Irobot清洁家庭中的地毯。)很难看出这些作业如何与经常被带到人格核心的属性 - 属性对于AI来复制最难是最困难的。[46]

安迪·克拉克(2003)还有另一种预测:人类将逐渐变成,至少在一个明显的程度,机器人,由人为肢体和感觉器官提供的,以及植入物。 这种趋势的主要驱动因素是,虽然独立的AIS通常是可取的,但在所需的智力水平高时,它们很难工程师。 但要让人类“飞行员”较少的智能机器更容易,而且仍然非常有吸引力的原因。 另一个相关的预测是AI将发挥对人类的认知假体的作用(Ford等人1997; Hoffman等人2001)。 假肢视图认为ai作为一个“伟大的均衡器”,这将导致社会中的分层较少,也许类似于印度式 - 阿拉伯语数字系统如何为群众提供算术,以及如何为古滕堡的压力促成识字率更多普遍。

即使这个论点正式无效,它也会留下一个问题 - 关于AI和未来的基石问题:AI会产生复制和超越人类认知的人工生物(作为Kurzweil和Joy认为)吗? 或者这只是一个有趣的假设吗?

这是一个不仅仅是科学家和工程师的问题; 这也是哲学家的问题。 这是因为有两个原因。 一个,旨在验证肯定答案的研究和开发必须包括哲学 - 出于本入口早期部分的原因。 (例如,理念是转向强大形式主义的地方,以便在机器术语中模拟人类命题态度。)两个,哲学家可能会提供现在,明确地提供回答基石问题的论据。 如果针对上面提到的“强”Ai中的三个论点中的任何一个版本(Searle的CRA;Gödelian攻击; Dreyfus参数)是声音,当然AI不会设法生产具有人的精神力量的机器。 毫无疑问,未来不仅拥有越来越智慧的机器,而且新的争论专业人士并解决了这一进步是否可以达到笛卡宣称无法访问的人类水平的问题。

(本章完)

相关推荐