社会焦点

凯文·凯利:关于超人AI你们都错了!(3)

字号+ 作者: 来源: 2017-04-29

此外,如前所述,我们是用全身而不仅仅是大脑来思考的。我们有大量数据表明,我们肠道的神经系统是如何引导我们“理性”的决策过程,并且可以预测和学习的。我们对整个人体系统建模越多,就离复制它越近。一个运行

  此外,如前所述,我们是用全身而不仅仅是大脑来思考的。我们有大量数据表明,我们肠道的神经系统是如何引导我们“理性”的决策过程,并且可以预测和学习的。我们对整个人体系统建模越多,就离复制它越近。一个运行在非常不同的身体(干的硅晶而不是湿的碳基)内的智能思考也会不同。

  我认为这不是bug,相反们这是一项特性。就像我在第二点指出那样,与人的思维方式不同是AI最主要的资产。而这个正是“比人类聪明”这个说法误导人的又一个原因。

  超人智能这个概念,尤其是智能会不断改进自己的观点,其核心理念是智能没有上限。我找不到这个的证据。再次地,把智能误解成单一维度帮助了这个理念,但我们应该把它理解成一个理念。按照目前科学的已知,在宇宙中还没有一个物理维度是无限的。温度不是无限的——冷和热都是有限度的。空间和时间是有限的。速度是有限的。数学数轴也许是无限的,但所有其他的物理属性都是有限的。显然推论本身也是有限的而不是无限的。那么问题来了,智能的极限在哪里呢?我们往往认为这种极限远远超过我们,远在我们“之上”,就像我们远在蚂蚁“之上”一样。单一维度的递归问题且抛开不谈,我们有什么证据证明我们就不是极限了呢?我们为什么就不能是最大值?或者也许极限离我们只有很短距离了呢?我们为什么会相信智能是一个可以无限扩展的东西呢?

  把我们的智能看成是100万种智能类型之一,这种对智能的看待方式要好得多。所以尽管认知和计算的每一个维度都有极限,但如果存在好几百个维度的话,那么就会有无数的思维出现——尽管任何一个维度都不是无限的。随着我们开发或者遭遇无数思维各种各样的变体,我们自然会认为其中一些超过了我们。在最近写的《必然》这本书里面,我粗略描述了部分思维变体在一定程度上会超过我们。以下就是不完整清单:

  凯文·凯利:关于超人AI你们都错了!

  今天的一些家伙可能想把这些实体都叫做超人AI,但这些思维绝对的多样性和相异性会将我们引领到有关智能的新表达和新洞察。

  其次,超人智能的信徒假定智能会(以某个未经确认的单一指标)指数增长,也许是因为他们也假设它已经在呈指数增长了。然而,迄今为止并没有任何证据表明智能在指数增长——无论你如何进衡量。所谓指数增长我的意思是说人工智能在一定时间间隔内实现了能力翻番。证据呢?我找不到。如果现在没有的话,为什么我们就可以假设很快就会发生呢?唯一呈指数曲线发展的东西是AI的输入,也就是致力于产生智能的资源。但输出的效能并未呈摩尔定律增长。AI能力并没有每3年翻番,或者甚至每10年翻番都没有。

  我问了很多AI专家,想找他们要智能的性能呈指数增长的证据,但他们都同意说我们并没有衡量智能的指标,此外,智能也不是这样运作的。当我问指数增长巫师Ray Kurzweil本人指数性AI的证据在哪里时,他回信说AI并不是爆发式增长而是按照水平提升的。他说:“计算和算法复杂度需要取得指数改进才能给层级增加额外的一层……所以我们可以预期线性地增加层级,因为这需要指数式的复杂度增加才能增加新的一层,在做这件事情的能力方面我们的确取得了指数式进展。我们现在距离大脑新皮质能做的事情已经没有那么多层的差距了(注:指深度学习的层次),所以对我来说我的2029年时间点(注:指奇点到来的时间)看起来还是很合适的。”

  Ray的意思似乎是说,不是人工智能的能力在指数式增长,而是产生人工智能的努力在指数增长,而这种努力的产出是每次提高了一个层级。这与智能正在爆发的假设几乎是背道而驰的。这在未来可能还会变化,但人工智能显然目前还没有指数增长。

  因此,当我们想象“智能爆发”时,我们不应该把它想象成级联爆发,而应该想象成新变体的分散剥落。是一次寒武纪大爆发而不是核爆炸。加速技术的结果不大可能是超人,而是异人(extra-human)。这超出了我们的经验,但未必就是“在我们之上”。

  超级AI接管世界另一个未受挑战的信念是,一个超级的、近乎无限的智能可迅速解决我们悬而未决的重大问题,但这几乎没有证据支撑。

  智能爆发的许多支持者期望它可以带来爆发式的进步。我把这种迷思成为“思考主义(thinkism)”。认为未来的进步水平只是受制于思考能力或者智能是谬误的。(可能我还要指出的是,很多喜欢思考的家伙都有那种想法,以为思考是包治百病的魔术配方。)

  就拿治愈癌症或者长生不老来说吧。这些问题都不是光靠思考就能解决的。思考主义再多也发现不了细胞是如何老化的,或者染色体端粒是如何掉落的。任何智能,不管它的能力如何超级,都不能仅通过阅读目前全世界所有已知的科学文献然后苦思冥想出人体是如何工作的。任何超级AI都不能光靠思考所有目前和过去的核裂变试验然后在一天之内想出可行的核裂变。在弄清事物的运作机制方面,从未知走向已知除了思考以外还需要很多其他的东西。现实世界要进行无数的试验,每一次都会提交无数自相矛盾的数据,需要进行进一步的试验才能形成正确的工作假设。对潜在数据展开思考并不能提交出正确的数据。

  思考(智能)只是科学的一部分,可能甚至只是一小部分。举个例子,我们还没有足够的合适数据来接近解决死亡问题。在有机体的问题上,这些实验大部分都需要日历时间。细胞缓慢的新陈代谢是没有办法加速的。这需要数年、数月或者至少数天的时间才能获得结果。如果我们想知道亚原子粒子发生了什么事情,光靠想是想不出来的。我们必须建造非常大型、非常复杂、非常精细的物理装置才能找出来。即便最聪明的物理学家比现在的聪明1000倍,如果没有对撞机的话,它们也知晓不了任何新东西。

  超级AI无疑可以加速科学的进步。我们可以让计算机模拟原子或者细胞,我们可以通过多种因素加速它们,但在获得即时进展上有两个问题制约了仿真的用处。第一是仿真和建模比主体快是因为忽略了一些东西。而这正是模型或者仿真的本质。还要注意一点:测试、审查以及证明这些模型也必须以日历时间的节奏来发生,这样才能匹配主体的速度。对基础事实的测试是没有办法加速的。

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章