社会焦点

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

字号+ 作者: 来源: 2017-03-22

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景,谷歌浏览器怎么用,谷歌服务框架,2017最新谷歌地图,谷歌员工的福利待遇

传统学术发表形式是 PDF 文件。但是,这种文件形式阻碍社区以一种新的互动创造性的方式共享科研成果。Distill 是一个现代的交互、视觉化期刊平台,面向现有以及新的机器学习研究成果。Distill 使用了现代用户界面,注重对研究的理解与诠释。这个平台包括三部分:一份期刊,一份奖金,还有各种创作互动文章的工具。

  官方网址:

一种新的交互视觉化期刊平台 Distill 今天正式启动。

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

  Distill 的发布得到了社区巨大支持,谷歌大脑的 Chris Olah 和 Shan Carter 是创始人,也是 Distill 整体愿景勾勒和执行的关键人物。

和每个科学研究领域一样,在机器学习领域,学术交流重要性在怎么强调都不会过分。

机器学习社区一直欢迎新的科研交流形式。现有的交流方式是在传统期刊上发表论文,在 arXiv 上托管,由代码库以及社区力量予以支持,比如 JMLR 和 JAIR,通过会议和调查、海报、博文、视频、演示、播客以及访谈的方式进行传播交流。

在这一背景下,Distill 做出了自己独特的贡献:以一种新的互动创造性方式分享科研成果。

网页是一种分享新思考方式的强大媒介。过去几年中,我们已经看到过许多富有想象力的这方面例子()。Distill 是一个新的独立、基于网页的媒体,面向清晰、开放(解密)的机器学习研究。包含三个部分:一个期刊,一份奖金,还有创作互动文章的各种工具。

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

Olah 在博客中表示,「我并没打算在这个网站上()写更多的关于深度学习的文章,我会成为 Distill 的联合编辑。Distill 是一个机器学习领域里的虚拟、交互期刊,侧重点是读者理解。我相信,这个平台能让我更好地服务研究社区。如果你喜欢我的博客,你最好首先在 Distill 上找我的文章。那上面的文章肯定比这里的内容要好很多。」

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

Distill 以标准方式集成到传统学术出版系统中(ISSN 和 CrossRef 等)。Distill 的文章将显示在谷歌学术中,这将有助于作者获得学术影响力。Distill 的文章也将根据知识共享署名许可证(Creative Commons Attribution licenses)进行许可。

诞生背景:「研究欠债」

Olah 表示,colah.github.io 很让我引以为傲。这些文章的阅读量已经超过 200 万次,有些文章已经成为大学课程的必读参考文献。但是我还是想解释一下为什么要搬到 Distill。

事实上,我对自己的研究工作已深感不安。我对研究社区做出的首要贡献就是除了理解机器学习,就是还知道如何将这种理解描绘出来(让他人更直观进行理解)。当然,我也做过一些有用的研究贡献。但是,我着力的地方是解释和消化其他人的研究发现。我很难不去认为,较之好的研究,这类研究的重要性仅是第二位的。

大约一年前,一些事情让我对此感到不安。我开始担心自己没法尽自己所能做出最好的研究,我感觉自己的研究工作有点不那么正统。我试着抛开这些想法,但是没用。我必须为自己找一个合理的解释。

我的答案是研究欠债(Research Debt)。

当人们都冲向新发现而不注重交流沟通这些新发现时,就会出现研究欠债的问题。

比如,当我们匆忙改完论文以满足大会的最后期限时,通常会有一些交流上的可读性和清晰性等问题。读者很难理解作者的想法,这可能给整个社区带来严重影响。

研究领域会变得嘈杂,能量也会随之被耗尽。在这样一个环境下,有人注重增进理解、清晰和交流沟通会非常有价值,这些人扮演着某种「研究蒸馏器(research distiller)」的角色。清晰的写作让每个人受益。

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

Distill 的价值意义

1、合法化非传统研究作品。

许多研究人员想要从事的研究工作并不能轻易包含在传统 PDF 论文中,这些人也无法获得从事这类工作的支持。作为研究社区的成员,如果没有将这些非传统、精彩研究作品视为真正的学术贡献,我们是在辜负这些研究人员的心血。

对我来说,这么做并不仅仅是看起来很重要。我希望看到更多的人去做这类工作。当然,已经有不少人或多或少在这片领域里耕耘了,但是这些研究只占他们工作的一小部分,而且还是非正式的方式。通过与他们交流,我开始发现,对此感到不安、倍受压力的人并非我一人。

我希望他们得到更多的支持。我特别想要支持那些可能『以此为生』的人,虽然会有一些很漂亮的工作等着你,如果你成了一名优秀的『研究蒸馏器』,但是,其中运行机制是非正式的,外部人也看不到它们,这确实是在冒险。我们能做的更漂亮些。

Distill 是一个机遇,我们可以开始打造这种生态系统。Distill 期刊会为这类研究工作提供渠道,将其正统化成为一种真正的学术贡献。Distill Prize(我拿出了 2 万 5 千美元)将会颁给这一领域的杰出研究工作。当然,还有很多工作要做,这仅仅是第一步。

另外,科学研究不是一个人的单打独斗,而是协作。无论是新研究还是解释性工作,都是如此。当你试着解释新研究时,更是如此。

不幸的是,个人博客并不能有效实现这一点。博客会给博主以及组织博客带来更多声誉,但排除了组织之外的协作者,也常常降低了个体贡献者的重要性。

Distill 是一个中立平台。就像传统的论文,我们也会在论文顶部列出作者及其所属机构的名称。不过,Distill 会深入创作背景,聚焦作者和他们的研究工作。

2、作为新的平台,Distill 提供了让新发现成为可能的新思维方式。

一些新的符号、视觉化以及思想模型都能加深我们的理解。通过孕育这类新的思维方式,Distill 为新发现创造可能。

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

3、机器学习需要更多的透明性。

机器学习会从根本上改变人类与计算机的交互方式。因此,让这些技术变得透明非常重要,借此我们也能了解和安全掌控系统运作方式。Distill 会为生动展示这些思想提供平台。

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

幕后团队

  

学界 | 谷歌联手OpenAI等发布可视化机器学习平台Distill,创始人详述创立背景

Distill 的发布得到了社区巨大支持。谷歌大脑的 Chris Olah 和 Shan Carter 是创始人,也是 Distill 也是整体愿景和执行的关键人物。

Chris 和 Shan 在创造超高品质解释文章和视觉材料方面有着大量的经验。他们致力于支持作者创造高品质博文、视觉和动态元素。

OpenAI 的 Andrej Karpathy 在指导委员会负责文章发表,Greg 协助筹集奖金。

DeepMind 也是 Distill 奖金(Distill prize)的赞助者。Shakir Mohamed 是指导委员会成员,其他成员还有 Yoshua Bengio, Ian Goodfellow 等人。

colah.github.io 的命运

Colah 还谈到了一点愿望:希望将不同类型的文章分配给不同的平台。

随着 colah.github.io 崭露头角,我也得到了回报,但也会有些不舒服。

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章