本文转自Crunchbase,原文地址。原文是英文,使用Google机器翻译,不影响重要信息获取。
由Zest AI CTO Jay Budzik撰写。Zest的ZAML软件使用机器学习技术来帮助贷方安全,公平,透明地做出更有效的信用决策。Zest由Google CIO Douglas Merrill创立,并得到Matrix Partners,Lightspeed,Upfront,Flybridge和Baidu的支持,与全球金融公司合作,帮助更多人获得公平和透明的信贷。
自从MMC Ventures发布意外发现以来已经一年了,有40%的AI初创公司在其技术堆栈中没有实质性使用AI。(这项研究是在欧洲进行的,但是,可能在任何地方。)作为一家AI公司的CTO,我可以告诉您嗡嗡声可能令人耳目一新。
我最近已经与许多客户,合作伙伴,尤其是投资者讨论了很多难题,证明AI是真实的(不仅是真实的)。真正的AI公司的外观轮廓仍在形成,我认为Andreesseen Horowitz的Matt Bornstein和Martin Casado在这里写的关于AI公司的内容将是有先见之明的。
如果您是AI公司创始人或CEO的对面的投资者,客户或合作伙伴,以下是我要问他们的团队是否合法的问题。鉴于AI的种类繁多,出于特殊性考虑,我们在此将AI定义为机器学习。
您使用了哪些数据集来训练和评估您的AI?
通用AI仍然是科幻小说。当今的技术适用于一系列狭窄而具体的问题,而机器可以通过处理历史指标和结果的大数据集来学习解决这些问题,效果最好。您可以通过保留一些数据以测试其准确性来判断您的AI在解决问题上的表现如何。人工智能公司的领导者应该能够描述他们的人工智能正在解决什么具体问题,它的准确性如何以及这种准确性如何带来业务成果。
AI公司需要的数据越多越好。数据可以有多种形式,但是很容易从行和列的角度进行思考。这些行对应于对结果的每次观察(例如,贷款是否变坏或得到还清?)。列是输入;在观察到结果之前已知的信息(例如,申请时的月收入)。
一家AI公司应该能够向您详细介绍其数据。公司应该能够传达AI试图预测的内容,用于训练AI的数据以及如何评估AI的有效性。AI多久更新一次?他们必须采取什么计划来合并新数据以使其更好?如果一家公司对数据问题有很好的答案,那么很有可能是合法的。
现在您的AI应该做什么人在做什么?
如果对面的团队认真对待AI,那么您从一开始就对他们来说是一个亟待解决的问题。您想听到他们通过其AI的特定应用进行交谈。根据部署方式和工作方式,人工智能可以解决数千种潜在任务中的任何一项。您要警惕缺乏特定重点的团队,以及听起来似乎难以置信的一切。他们是否声称您将能够取代大量工人?他们是否将AI作为解决任何问题的灵丹妙药?
当一家公司真正完成了将AI应用于特定问题的过程时,它就会知道结果的准确性,何时成功和失败以及何时存在数据和流程空白。该公司非常了解,可以看到人工智能是一种工具,它可以完成计算机和高级数学所擅长的工作,同时让人们有能力做得更好。
公司应该清楚地了解人们将需要做哪些事情,而AI不会做这些事情,以及AI如何适应涉及人的业务流程。应该描述将AI应用于业务问题所需的变更管理,以便您知道客户需要做什么才能获得收益。与AI纠缠不清的人应该连贯,周到和谦虚。他们将讲述发生了什么问题以及如何纠正的问题。警惕声称不需要仔细监视AI的说法。
人工智能是否已用于推动一致的业务成果并为多个客户解决实际问题?
诱人的是低估了在实验室中行之有效的想法并使之在现实世界中起作用的难度。进入工作环境后,AI通常不会达到预期的效果,而使其真正起作用可能是漫长而昂贵的旅程。根据Gartner的最新估计,只有20%的AI项目能够脱离实验室。在我的工作中,我听到了来自大型公司的故事,这些公司花费了多年的时间试图将其AI项目投入生产。
了解有关AI如何在实践中工作的一些细节非常重要。您可以询问有多少客户使用过它,已经投入生产多长时间了,它产生了什么业务成果。平均启动和运行需要多长时间?AI如何与相同业务成果或任务的历史度量进行比较?与规则,决策树或线性模型之类的较简单的替代方法相比,又如何呢?
那里有很多看起来很酷的AI。困难的部分是将一种可行的方法(无需处理大量示例和特定的有限数据集)转换为可在现实世界中使用的方法,而无需进行持续且昂贵的调整和维护。数据科学很难,要创造能够产生一致业务成果的AI,就需要对高技能人才,出色的工具和流程规范(包括全面的监控)进行投资。只需记住,在演示中看起来不错的东西在应用于实际问题时可能不会以相同的方式出现:提出问题以证明AI确实有效。
构建AI需要花费多少时间,进行了多少现场测试以及谁对其进行了检查并提出了意见?
您当然想知道公司拥有多少博士,以及为开发AI投入了多少资金。尽管它们无法说明全部内容,但这些都是不错的指标。目的是要确保公司在实验室中的各种问题上花了足够的时间和精力进行游戏,然后在现场进行测试和改进。理想情况下,您将听到有关多年发展以及与不同类型的客户一起部署的信息,从而可以确保他们的AI具有适应性并得到了证明。
对AI的监管只会增加。这将要求模型经过仔细的验证和治理过程,就像我们今天在金融服务中看到的那样。为了确保以负责任的方式使用模型,需要对AI模型进行彻底的验证。在医学研究中,食品药品监督管理局已经批准了一些支持AI的流程,而在金融领域,监管机构已经在审计中批准了AI模型。当遵循正确的验证流程时,即使在受监管的行业中,人工智能也已经通过了部署,并有望被广泛采用。公司有哪些验证做法?
了解您的AI的决定或建议有多容易?
AI的早期结果是如此令人鼓舞,以至于该行业在没有建立透明的工具来审查决策和流程的情况下迅速前进。如果您的AI建议张贴要点击的帖子或选择唇彩颜色,那并没有那么重要。为了做出联邦监管的决定(例如贷款或驾驶),政府需要针对AI模型构建过程的每个步骤以及企业为每个基于AI的决定辩护的详细文档。在许多情况下,无论监管机构是否审查了施工过程,公司都会对有偏见的决策或不良结果负责。要求AI公司向您展示他们如何向客户和监管机构解释基于AI的决策。
AI有什么样的偏见,如何消除?
优秀的AI公司应该对如何使其AI公平有一个清晰的认识,因为偏差在每个数据集中都是固有的。我们知道,我们用于训练模型的数据集包含性别和种族偏见,并且许多数据集不包括历史上服务不足的重要人口统计数据段。建立更具包容性的AI导致我们搜索更多数据。团队中的人也很重要。一个好的数据科学家团队知道其盲点和价值多样性。Zest技术团队中约40%是女性和计算机科学领域中代表性不足的其他领域。多样性带来更好的结果。
处理良性意图最终导致不公平结果的意想不到的偏见,又回到了透明度。由于AI可以在看似不同的信息之间找到看不见的关联,因此输入看起来似乎没有偏见,但结果可能会有偏差。符合道德规范的AI公司将有一个全面且可操作的策略来衡量和缓解偏见,以便公平,包容地使用AI。要求看到它。
每个人都希望拥有成功的生意并赚钱。使用AI来实现您的目标并不难,您只需要问正确的问题,以确保您的AI合作伙伴是合乎道德的,并证明其具有将AI始终投入生产的纪律。真正的AI公司可以告诉您有关此旅程的所有信息。