社会焦点

成立1年估值超10亿 与谷歌飙技术 90后CEO如何做到

字号+ 作者: 来源: 2017-04-28

成立1年估值超10亿 与谷歌飙技术 90后CEO如何做到

  智东西(公众号:zhidxcom)

  文 | Lina

  人工智能热潮的兴起已然是不争的事实,就在你读文章的此时此刻,为期三天的ICLR国际学习表征会议刚刚落下帷幕。这场由全球两位深度学习巨头举办的学术研讨会在近年来声名鹊起,一跃已经成为人工智能领域的重要会议之一,谷歌、百度、Facebook、英伟达等各大公司争相加码赞助。(6位大牛21场演讲,一文看尽最牛深度学习大会ICLR!)

  而在这份赞助厂商名单上,一个中国创企尤为引人注目——深鉴科技。这是一家非常年轻的公司,履历却惊人地亮眼,公司内部聚集了无数清华、斯坦福的技术大牛,在各种学术研讨会上拿奖拿到手软。而且成立刚满一年,不仅拿到了500万美元的天使轮,还在今年年初敲定了数千万美元的A轮融资,估值超过10亿人民币。

  那么它是做什么的呢?既然赞助ICLR大会,那么自然与深度学习有关。

  深度学习分为训练(Training)和应用(Inference)两部分,深鉴科技主要解决应用问题。简单来说就是企业将自己的深度学习算法模型训练好之后,由深鉴科技将其压缩20-50倍并编译,最终产品以板卡形式呈现。

  深鉴科技基于的是FPGA平台:与擅长训练的GPU相比,FPGA功耗更小、整体性价比更高,更适合用于应用。但是由于FPGA的开发难度高、周期长,因此很多公司不愿使用。深鉴科技相当于给用户提供了一个黑盒子,企业只需要提供输入模型和数据,由深鉴科技提供应用层的FPGA解决方案。

  智东西从很早之前就开始关注深鉴科技了。今年2月,深鉴科技首席科学家韩松的“深度压缩”论文获得了FPGA芯片领域顶级会议FPGA 2017的最佳论文奖;而更早之前,在去年的ICLR国际学习表征会议上,最佳论文奖也被深鉴科技斩获。同年的另一篇最佳论文奖获得者大家一定非常熟悉,那就是AlphaGo开发者——谷歌DeepMind。

  巧合的是,深鉴科技与智东西同在人工智能创业胜地——五道口,而且公司离得特别近,也算是缘分。今天,智东西来到了公司内部,与创始人兼CEO姚颂仔细地聊了聊。

一、“姚老板”与他的师兄弟们(还有师父)

成立1年估值超10亿 与谷歌飙技术 90后CEO如何做到

  姚颂给人的第一感觉——很年轻,也很瘦。带着眼镜,穿着长袖的蓝白细格子衫,人非常nice、很健谈、也很好说话。

  但。是。

  请不要误以为眼前只是某位面相清秀的普通理工科男生,这可是一个实打实的学术大牛。从小一路直升,高三直接保送进清华,进入电子系后大一就进了实验室(理工科的同学大概可以理解这有多么厉害),本科阶段不仅在斯坦佛访问、微软亚洲研究院实习、开发项目、发表论文、差不多就是把别人本硕博的事情一起做完了……此外,姚颂还担任过电子系科协主席,主办过电设等一系列科创赛事——也正是因为主席的位置十分类似公司的CEO,因此姚颂在大三时就有了个外号:“姚老板”。

  而深鉴科技的另外几位联合创始人与合伙人则更是卧虎藏龙。

成立1年估值超10亿 与谷歌飙技术 90后CEO如何做到

(左到右:单羿,汪玉,姚颂,韩松)

  汪玉——也就是姚颂口中提到的“汪老师”,姚颂在大一时进的就是汪老师实验室——清华电子系98级毕业生,现任清华大学电子工程系副教授、党委副书记。从2006年开始研究FPGA,现在是ACM FPGA技术委员会亚太地区的唯一成员。

  CTO单羿,清华电子系博士,04级本科,曾在地平线机器人担任FPGA技术负责人、在百度深度学习研究院担任高级工程师。

  首席科学家韩松,清华电子系08级本科,斯坦佛博士在读。韩松也就是我们上文提到的最佳论文奖获得者,其研发的“深度压缩(Deep Compression)”的技术,它不仅可以将神经网络压缩数十倍而不影响准确度,还可以使用“片上存储”来存储深度学习算法模型,减少内存读取,大幅度减少功耗。

  “我是里面年纪最小的一个,11级的。”“姚老板”说完这话,低头笑了笑。

  现在深鉴科技整个团队有70人,其中将近一半都是清华出身,而且放眼望去……..几乎全部都是男生。这家在2016年3月3日正式成立的公司,在刚成立一个月就拿到了金沙江创投与高榕资本的500万美元天使轮融资,今年年初更是敲定了数千万美元的A轮融资,投资方包括了FPGA的开山鼻祖——赛灵思(Xilinx)。

二、从GPU到FPGA,风起云涌的深度学习

  人工智能的火热已然有目共睹,从如雨后春笋般增长融资的各类AI创企、国内外无数巨头高调进军加码、再到“人工智能”被写入我国政府工作报告等诸多新闻中皆可见一斑。其实人工智能的概念早已有之,为什么近年如此火热呢?

  姚颂认为,深度学习和以往的人工智能不一样,不仅已经能够在某些领域超过了人类,而且原来人脸识别、微表情、医疗、SLAM等都有专家,每个领域的专家不能复用,但现在深度学习的AI框架可以把所有领域都囊括进去,对于硬件加速很友好,应用范围很广。

  然而说起深度学习,大家最联想到的还是GPU——五六年前,跑机器学习算法主要用的还是CPU,CPU通用性好,硬件框架已经很成熟,非常友好。然而,随着机器学习及深度学习的运算量越来越大,CPU已经不能满足人们的需求,人们进而把眼光转向了GPU。

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章