【AI创新者】Palm创始人Jeff Hawkins:大脑理论与智能机器探索者(3)
2017-04-28 编辑:
Hawkins:真正的智能系统通过运动和操作来建立世界的模型。大脑新皮层随着感官数据的变化建立一个真实环境的模型。这就解释了为什么大脑学习比ANNs学会更丰富的模型,为什么大脑学习新事物的速度要快得多。总的来说,我相信随着时间的推移AI研究和大脑理论会变得更紧密。
《程序员》:你肯定也听到过同行对基于人脑理论研究AI方式的质疑,例如Yann LeCun曾说这些理论实例化的难度被严重低估,缺乏数学支撑,也缺少像MNIST或ImageNet这样的客观检验。
Hawkins:我们不该忘记,AI已经包含了大脑的原理,如分布式编码与Hebbian学习,这些想法已经存在了很长时间。近年来,我的团队在大脑理论方面取得了重大进展。我们的压力在于要证明它们是相关的,这是一项有挑战的任务。
《程序员》:有些人担忧智能机器在未来会对人类构成威胁,你怎么看?
Hawkins:我不同意这些担忧,这些想法基于三个错觉。
错觉1:智能机器将掌握自我复制能力。末日场景常描绘机器智能拥有了人类无法控制的自我复制能力。但自我复制和创造智能完全是两码事。将智能赋予那些已经具备自我复制能力的东西将造成糟糕的后果,但是智能本身不会倾向于去自我复制,除 非你相信第二个错觉。
错觉2:智能机器将拥有人的欲望。大脑皮质是一个学习系统,但它不具有情绪。大脑的其他部分,如脊髓、脑干和基底神经节这些古老的大脑构造才是负责诸如比饥饿、愤怒、性欲和贪婪这些本能和情绪的。或许有人会试图建造具有欲望和情绪的机器,但这和建造智能机器是两回事。
错觉3:机器将导致智能爆炸。智能是学习的产品,对人类来说,这是个经年累月的缓慢过程。智能机器的区别仅是,它们可以通过复制和传输来获得新知识,减少学习时间。但当它去探索新原理,学习新技能时会遇到与我们一样的困难。对大多数问题,同样需要设计实验、收集数据、预测结果,修正并不断重复这些过程。如果想去探索宇宙,依然需要靠望远镜和星际探测器去太空采集数据。如果它想搞清楚气候变化,依然需要去南极取个冰核样本或者去海里部署测量仪器。
我们对威胁的反应该基于这种威胁离我们有多远。比如说地球将在1.5亿年后因为太阳变热而无法居住。几乎没人因为这个问题感到恐惧——实在太遥远。机器智能的进化过程中存在某些危险趋势,但这些危险有近有远。目前尚未发现已知的威胁。而对于遥远的未来,我们也能容易地改变那些可能会出现的问题。
订阅程序员(含iOS、Android及印刷版)请访问 http://dingyue.programmer.com.cn
【在线直播】人工智能核心技术解析与应用实战峰会由CSDN学院倾力打造,本期直播(5月13日)邀请来自阿里巴巴、思必驰、第四范式、一点资讯、58集团、PercepIn等在AI领域有着领先技术研究的一批专家,他们将针AI领域热点话题进行分享。
相关阅读:
相关推荐: