社会焦点

【深度学习进化论】谷歌大脑神经演化新算法 PK OpenAI 集群智能(2)

字号+ 作者: 来源: 2017-03-21

这种方法也有局限性,最主要的是 worker 算法只将一个数字——它们的最高分——汇报给主算法。虽然得到最佳分数的算法都存活下来了,但要让 Master 知道是什么特别的举动让 worker 取得了高分,则需要过多的计算力

  这种方法也有局限性,最主要的是 worker 算法只将一个数字——它们的最高分——汇报给主算法。虽然得到最佳分数的算法都存活下来了,但要让 Master 知道是什么特别的举动让 worker 取得了高分,则需要过多的计算力。(在生物学中,这种情况可以一个蚁群类比:工蚁出去找到最佳的解决方案;蚁后是信息的中心枢纽。)

  神经演化:与神经网络同样值得关注的方法

  “20 世纪 80 年代,神经进化学和神经网络的研究规模还比较相似。”Kenneth Stanley说,他是美国中加州大学的副教授,最近刚刚加入 Uber 的 AI 团队(Uber 收购了他联合创立的公司Geometric Intelligence)。

  “只有很少的人考虑过大脑——它称得上是自然界中智能的唯一证据——是如何演化出来的。”Stanley 说,“有些人认为最简单直接的方法就是在计算机上创造一次人工大脑的达尔文式进化。”

  自从1986年三位计算机科学家 David Rumelhart、Geoffrey Hinton 和 Ronald Williams发表了一篇关于神经网络从自己的错误中进行学习(称为BP,即backpropagation)的论文,神经网络开始长足的发展。结果大大提升了人工神经网络的效用。但所谓的进展缓慢仍然使资金大为缩减,随之而来的 AI 寒冬延缓了神经网络的成长。直到 2000-2009 年代中期,Hinton 等人又开始发表论文,论证了 BP 算法可以让神经网络显著增长,并进而理解复杂得多的概念。神经网络此时显得如此诱人,以至于更大规模的计算机科学机构无法拒绝。这些网络被贴上了“深度”的标签。深度神经网络从此成为了现代人工智能领域最受欢迎的大餐。

  “因此,对神经演化的关注度降低了,这成了大脑演化的一条平行线,”Staney 说。

  早在 2002年,刚开始职业生涯时,Stanley 就写了一个成为 NEAT 的算法,该算法允许神经网络随着时间的推移演化成更大、更复杂的版本。该研究的论文(Evolving neural networks through augmenting topologies)在 Google Scholar 上被引超过 1600 次,从发表以来已被深度神经网络设计和神经行为研究广为引用。2006 年,Stanley 发表了 Hyper-NEAT,这是一个让神经进化更大规模的算法,它受到 DNA 为有数万亿连接的数十亿生物神经元设计蓝图的能力的启发,尽管 DNA 只有约 30000 基因。(有趣的是,Hyper-NEAT的全名是 Hybercube-based NeuroEvolution of Augmenting Topologies,我觉得任何人都能取个为它更好的名字)。

  与 Stanley 一样,OpenAI 和谷歌也在研究同一个领域,不过他们的想法不同。谷歌使用的混合方法结合了经典的神经演化和反向传播等技术,也是令今天的深度学习如此强大的方法:它教一个算法如何在真实世界行动,让它演化,而该算法的孩子将拥有大部分已经积累的知识。OpenAI 的方法与进化在生物学如何作用更加真实。该团队只让每一代的随机突变控制网络如何改善或如何失败,这意味着改善只是通过随机的进化创造的。但这两种尝试都有非常明确的目标——即识别图像,或在游戏中获得高分。算法如何达成目标则听其自然。

  对于 OpenAI 的工作,Stanley 说:“一个人一出生大脑中就有着权重,并且它将贯穿在整个生命中。这就像假如我们养育了你,你的孩子,你的孙子,然后孙子这一辈懂得了微积分。”

  https://qz.com/933695/researchers-are-using-darwins-theories-to-evolve-ai-so-only-the-strongest-algorithms-survive/

  新智元“3·27”AI 技术峰会购票二维码:

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章