社会焦点

人工智能公司的17大关键成功要素:跟资深VC学如何看这个行业(2)

字号+ 作者: 来源: 2017-05-29

第二,机器学习很不适合解决以因果推论为主的问题。机器学习可以描述数据中的各项元素之间的相关性,但却无法确定它们之间的因果关系。如果未来与过去并不相似,而过去的模式无法反映新的现实,机器学习就不擅长预

  第二,机器学习很不适合解决以因果推论为主的问题。机器学习可以描述数据中的各项元素之间的相关性,但却无法确定它们之间的因果关系。如果未来与过去并不相似,而过去的模式无法反映新的现实,机器学习就不擅长预测这些问题。

  5. 表现路径

  机器学习未必要100%有效才能发挥价值。从实践角度来看,机器学习引导的解决方案只需要提供与人类近似(最好优于人类)的表现,便可实现自动化并扩大生产规模。因此,在评估机器学习支持的技术的具体表现时,应该从中长期去评估——最好能优于人类的表现——以便解锁价值。

  人类的表现水平可能低于我们的想象。根据美国国家高速公路交通安全管理局的统计,美国有94%的车祸都源自人为错误。无人驾驶汽车不需要100%安全便可彰显价值:只需要达到与人类相似或高于人类的水平即可,而美国司机目前的水平是每1亿英里行驶里程死亡1.25人。(当然,在实际情况下,买家对某项技术的信任是其普及的进一步条件——在某些领域,要让人们接受这些技术,还需要达到更高的标准,其中也包括无人驾驶汽车。这一点将在下文讨论。)

  6. 合适的数据

  要让机器学习创造价值,就需要通过合适的数据对其进行训练。我们会评估一家公司能在多大程度上获得合适的数据。我们会以机器学习的两个数据处理阶段为背景来衡量数据的适用性:

  选择:数据可用性;是否存在数据缺口和复制品;数据标记的质量,数据是否存在偏见;

  处理:数据碎片化;数据清理需求;数据采样需求;数据转换、分解和聚合需求。

  我们还会衡量数据集能否保持价值。如果能用历史数据测试和改进一个算法的各种新版本,数据集就能保持价值。但情况并非总是如此。如果一家聊天机器人公司改进了算法,它提供给用户的提示就将与以往有所不同。如果聊天机器人的提示发生变化,用户回应的内容很可能也会改变。

  由于庞大的用户回复数据集已经与算法解耦,甚至毫不相关,该公司的历史数据用处也就非常有限。你可以将此与防欺诈公司进行对比。可以用一套算法来测试历史客户活动数据集,以便了解算法的精确度是否有所提升。

  价值实现

  人工智能公司的17大关键成功要素:跟资深VC学如何看这个行业

  有吸引力的公司具备创造价值的潜力。但价值能否实现呢?根据我们的经验,有5项因素对机器学习引导的公司十分重要。第一项(管理层团队的商业能力)与人才有关。后面三项目(可以量化的投资回报率、买家预备状态和良性监管)与商业系统接受程度有关。最后一项(部署的可扩展性)则与市场进入战略有关。

  1. 管理团队的商业能力

  很多机器学习公司的创始人都拥有一流的技术实力。但商业嗅觉在企业的长期成功中发挥着重要作用,重要性甚至超过技术实力。多数B2B软件公司迟早都要组建直销团队——只有创始人主动去寻找业务,才能真正扩大规模。

  拥有商业头脑的创始人愿意做大企业,也愿意拥抱市场,同时也具备组建强大销售团队的能力。投资者可以提供更帮助——我的同事Jon Coker和Simon Menashy在帮助创始人组建和扩大SaaS销售团队方面拥有不俗的经验——但如果创始人的商业化动力有限,他们也无能为力。

  2. 可量化的投资回报率

  如果一个方案拥有可以量化的投资回报率,往往就更容易在B2B市场上被人接受,销售周期也会缩短,客户教育成本也会降低。在销售和营销职能中,销售转化率的提升可以轻易评估。在金融领域,交易利润的增加也很明确。在英国,多数创业者都把自己的目标瞄向了可以演示投资回报率的领域:

  服务于营销和广告职能的机器学习创业公司多于其他领域——约占英国总数的20%;

  创业活动最为集中的是金融领域(在早期机器学习公司中约占8%)。

  3. 买家预备状态

  买家预备状态通常可以以漏斗的形式来评估:认识、了解、喜好、确信、购买。对机器学习公司来说:

  我们把“准备就绪”作为漏斗中的一个阶段加入其中。准备就绪评估的是买家是否拥有训练和部署算法所需的合适的、可以获取的数据集,以及是否获得了组织的支持,以便用人工智能引导的解决方案加强或颠覆现有的工作流程。

  在“喜爱”阶段中,我们考虑的是信任和控制问题。信任是相信解决方案在人类只进行有限干涉的情况下的表现。接受度的标准多种多样;乘坐无人驾驶汽车旅行,以及用机器学习诊断疾病,都需要极高的信任。控制描述的是,即便在系统信任很高的情况下,人类介入某个系统或流程的意愿。价值释放、采纳和可扩展性可能局限于特定环境,这些环境都需要让人类保持较高的控制。

  4. 良性监管

  机器学习往往具有“黑箱”特性。Nuance的Nils Lenke说:“内部机制并不非常明确——你让神经网络自我组织,它真的会自己组织自己:它未必会告诉你具体过程。”

  因此,我们会考虑一家机器学习提供商是否在透明度上面临监管挑战。是否需要理解或解释一套机器学习解决方案提供的预测或决策?

  在英国,达成抵押合同需要受到《金融服务和市场法案》(Financial Services and Markets Act)的监管。《企业抵押贷款行为规则手册》(The Mortgage Conduct of Business Rulebook)第11.6.2条声明,除非能够证明客户能够担负起合同,否则不能达成交易。倘若贷方采用“黑箱”深度学习算法来判断用户的担负力,能否将其应用于实践?

  监管风险会被夸大。媒体广泛报道了欧盟新制定的《一般性数据保护规定》(General Data Protection Regulation),这项规定将在2018年成为整个欧盟的法律。它创造了“解释权”,也就是用户可以要求相关企业就算法针对他们做出的决策给予解释。

  实际情况没有那么明确——实际上更有可能意味着的“通知权”,也就是说,企业只会阐述算法决策的一般流程及其使用的数据集。然而,决策方向的确更加重视透明度和潜在的偏见。美国白宫科技政策办公室2016年发布了《人工智能的未来筹备报告》,该报告总结道,“研究人员必须学习如何设计这些系统,以便它们的行动和决策对人类透明,并且可以轻易被人类解释。”

  在销售、营销和商业情报等特定的B2B职能中,可解释性可能算不上是一项挑战。但在其他领域——包括人力资源、合规性和欺诈——却有可能颇具挑战,这主要是从法律和务实角度来考虑。

  类似地,某些领域(金融服务)的企业比其他企业更需要遵守规则。在评估机器学习公司时,我们希望了解企业现在和未来有可能面临的监管阻力,以及他们的应对方案。

  5. 部署的可扩展性

  机器学习引导的软件公司的扩张速度可能因为难于部署而受到限制。

  数据集成要求可能很广泛。合并、集成和净化相互隔离的客户数据集,会限制实现价值的时间。

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章