站点图标 产品经理的人工智能学习库

Lyft的Craig Martell访谈录:更少算法,更多应用

好文分享

好文分享

本文转自《Less Algorithm, More Application: Lyft’s Craig Martell

全文由机器翻译,质量不够好,但不影响整体理解

莱夫特(Cyig Martell)

克雷格·马爹利(Craig Martell)是Lyft的机器学习负责人,也是西雅图东北大学Align计划的机器学习兼职教授。在加入Lyft之前,他是Dropbox的机器智能主管,领导了LinkedIn的许多AI团队和计划,并且是加利福尼亚蒙特雷的海军研究生院的终身教授。Martell拥有博士学位。拥有宾夕法尼亚大学计算机科学博士学位,并且是《计算机伟大原理》(麻省理工学院出版社,2015年)的合著者。

您的评论对于Me,Myself和AI的成功至关重要。在限定时间内,我们将向观看该节目的听众免费下载麻省理工学院SMR关于人工智能的最佳文章。将您的评论的屏幕截图发送至smrfeedback@mit.edu以接收下载。

我们从《我,我自己和人工智能》的第二季开始,讨论Craig在AI和机器学习领域所看到的特定趋势:随着组织越来越依赖于技术驱动的解决方案来解决业务问题,算法本身比其适用性更重要纳入整体工程产品管道和产品开发路线图。克雷格(Craig)分享了他的想法,即这种转变对组织中的学术教育和跨职能协作意味着什么,主持人对如何消除无意识的偏见深思熟虑。

https://sloanreview.mit.edu/aipodcast上阅读有关我们节目的更多信息,并关注该系列节目。

要了解有关电影《编码的偏见》的更多信息,克雷格在采访中提到该电影,请访问www.codedbias.com。要了解有关MIT媒体实验室研究员Joy Buolamwini的工作的更多信息,请访问她在实验室网站的页面

Apple PodcastSpotifyGoogle Podcast上订阅“我,我自己和AI ” 。

成绩单

Sam Ransbotham:算法变得越来越不重要了吗?随着算法的日趋商品化,算法可能会越来越少,而应用程序则越来越多。在《我,我自己和人工智能》第二季的第一集中,我们将与Lyft机器学习负责人Craig Martell谈谈Lyft如何利用人工智能来改善其业务。

欢迎来到“我,我自己和AI”,这是有关业务中人工智能的播客。在每一集中,我们都会向您介绍使用AI进行创新的人。我是波士顿学院信息系统教授Sam Ransbotham。我还是《麻省理工学院斯隆管理评论》(MIT Sloan Management Review)的AI和业务战略大创意计划的客座编辑。

Shervin Khodabandeh:我是BCG的高级合伙人Shervin Khodabandeh,我是BCG在北美的AI实践的联合负责人。麻省理工学院SMR和BCG在一起进行了五年的研究,采访了数百名从业人员,并对数千家公司进行了调查,以了解构建,部署和扩展AI功能以及真正改变组织运作方式所需的条件。

Sam Ransbotham:今天我们要与Craig Martell谈谈。Craig是Lyft机器学习的负责人。感谢您今天加入我们,克雷格(Craig)。

克雷格·马爹利(Craig Martell):谢谢,山姆。我很高兴来到这里。这些都是令人兴奋的话题。

Sam Ransbotham:那么Lyft机器学习负责人Craig –究竟是什么意思,您是如何到达那里的?

克雷格·马爹利(Craig Martell):首先,我很确定自己赢得了彩票,这就是原因:我从学术上开始从事政治理论研究,我有一个pent废的青年,一路走来收集了硕士学位。弄清楚我想做什么。因此,我学习了哲学,政治学,政治理论,逻辑……然后最终获得了博士学位。宾夕法尼亚大学的计算机科学专业。我以为我会做可检验的哲学。与之最接近的是AI,所以我只是出于爱而这样做。我只是发现整个过程,目标和技术,绝对令人着迷。

Sam Ransbotham:您的总体规划的所有部分都融合在一起了。

克雷格·马爹利(Craig Martell):一点也不。我掉进去了。

Sam Ransbotham:那么,您是如何最终来到Lyft的呢?

克雷格·马爹利(Craig Martell):我在LinkedIn呆了大约六年。然后我的妻子在亚马逊获得了这份非凡的工作,我想保持婚姻状态,所以我跟着她去了西雅图。我在Dropbox工作了一年,然后Lyft与我联系。我基本上抓住了这个机会,因为这个空间是如此迷人。我总体上喜欢汽车,这意味着我总体上喜欢交通。改变我们的交通方式的想法只是一个令人着迷的空间。然后,在我前世时,我是一名终身任职的计算机科学教授,这仍然是我的挚爱,因此,我是东北大学的兼职教授,只是为了确保我保持自己的教学技能。

Shervin Khodabandeh: Craig,您在哲学,政治学领域拥有深厚的人文背景,您提到了逻辑-所有这些-在您的整个旅程中,这对您有什么帮助?

克雷格·马爹利:因此,这真的很有趣。当我思考什么是AI时,我发现算法在数学上很有趣,但是我发现算法的使用更加有趣。因为从技术角度来看,我们正在发现极高维非线性空间中的相关性。从某种意义上说,它是大规模的统计数据,对吧?我们正在发现A和B之间的这些相关性。这些算法真的很有趣,我现在仍然在教那些,它们很有趣。但是对我来说更有趣的是,这些相关性对人们意味着什么?我认为推出的每个AI模型都是一项认知科学测试。我们正在尝试模拟人类的行为方式。现在,对于自动驾驶,我们正在对汽车在某种意义上的行为进行建模,但实际上,考虑到其他由人驾驶的汽车,我们正在对正确的人类行为进行建模。

Sam Ransbotham:您能谈谈Lyft如何组织AI和ML团队吗?

克雷格·马爹利(Craig Martell):在Lyft,我们在整个公司都有模型构建者-我们有一个非常大的科学组织。我们也有所谓的ML SWE-ML软件工程师。我管理着一个名为LyftML的团队,它由两个主要团队组成。一种叫做“应用机器学习”,我们利用专业知识和机器学习来解决一些非常棘手的问题。还有ML平台,这促使我对获得ML的卓越运营抱有极大的兴趣,以确保它有效地达到了业务指标。

Shervin Khodabandeh:您的想法是-因为我认为Craig,您还在教书,对吗?

Craig Martell:是的,我是西雅图东北大学的兼职老师。

Shervin Khodabandeh:那么您认为您的学生应该问他们不是吗?或者换一种说法,当他们进入劳动力市场并在现实世界中实际使用AI时,他们会感到最惊讶的是什么?

Craig Martell:算法本身正在变得不那么重要。我不愿意使用商品化一词,但在某种程度上,它们已经被商品化了,对吗?您可以选择五分之一,也可以选择七分之一,针对特定的问题,可以全部尝试-模型家庭。但是实际发生的事情,或者我认为令人兴奋的事情是,这些模型如何适应更大的工程流程,从而使您能够衡量并保证自己对业务目标的有效性。这与数据的清洁度有关,请确保及时存在数据……经典的工程设计,例如,您是否以适当的延迟返回了功能?因此,实际模型本身已经从问题的85%缩小到问题的15%。现在85%的问题是围绕它的工程设计和卓越运营。我认为我们正处于一个转折点。

Shervin Khodabandeh:因此,您相信,随着AutoML和这些打包工具的出现,以及随着时间的推移,关于算法的关注越来越少,有关数据及其使用方式的关注越来越多。…您认为10年后的课程和培训以及仅仅是数据科学家的总体方向会大不相同吗?我们应该教给他们不同的东西,不同的技能吗?因为它曾经是,所以很多精力都集中在创建算法,尝试不同的事情上,我想您是在指出这一点处于稳定状态。对于未来的劳动力意味着什么?

克雷格·马爹利(Craig Martell):是的,我认为那太好了。我要在这里说些有争议的事情,我希望不要冒犯任何人。

Shervin Khodabandeh:这就是为什么我问,所以我希望你会的。

克雷格·马爹利(Craig Martell):因此,如果您只是在五年或十年前,为了实现科技公司想要实现的那种价值,您需要大量的博士,对吗?建立这些算法的技术能力非常重要。我认为转折点可能是2013年代的TensorFlow,当时它并未商品化-您仍然需要对算法进行认真思考-但实际的“走出去”算法变得很多更轻松。现在,有很多框架可以做到这一点。

我想知道-这是一个真正的奇迹:我想知道学位程度,我们将来需要多少专门的机器学习/ AI数据科学培训。我认为CS本科生或一般的工程学本科生都将通过两到三个AI班毕业。还有这两个或三个AI类,在公司中具有正确的基础架构,正确的功能收集方式,正确的方法来指定标记的数据……如果我们拥有该ML平台,那么拥有两个或三个强类的人将会加入才能交付公司可能需要的70%的模型。现在,对于那30%,我认为您仍然需要一段时间的专家。我愿意。我只是认为您不需要像以前那样需要它,几乎每个专家都必须拥有博士学位。

Shervin Khodabandeh:是的,Sam,我实际上对此产生了共鸣。以一种有趣的方式,它证实了我们一直在说要真正产生大规模影响所需要的内容,这是到目前为止,技术方面的知识只能带给您,但是最终,您必须改变其使用方式,并且您必须改变人们的工作方式以及人与AI之间不同的交互方式。我想这是很多人文科学,哲学,政治学以及人类的工作方式-比算法的工作要重要得多。

Sam Ransbotham:嗯,这也是一个很好的重定向,因为如果我们不小心的话,那段对话会使我们更多地进入DevOps课程,所以Shervin指出的是,当然,这当然也是一个组成部分,但是有流程的变化,还有更多面向业务的计划。

您还想教别人什么其他方法?或者,您认为高管还应该知道哪些其他内容?……每个人都不必知道所有事情;这会有点压倒性的。如果每个人都知道一切,那也许是理想的选择,但是不同级别的经理到底需要知道什么呢?

克雷格·马爹利:我认为,最高决策者需要了解模型出错的危险,并且他们需要了解整个过程-您确实需要标记的数据。这里没有魔术。他们必须了解没有魔术。因此,他们必须了解标记的数据是昂贵的,正确设置标记并正确采样所需的世界分布非常重要。我相信他们还必须大致了解生命周期,这与我们将关闭这些吉拉门票的两周冲刺不同。数据收集非常重要,这可能需要四分之一或两分之一的时间。而且您发布的第一个模型可能不会很好,因为它来自一个带有标签的小型数据集,而现在您正在狂野地收集数据。因此,有一个他们需要了解的生命周期部分,不幸的是,他们需要以很多方式(可能不是用于汽车驾驶,而是出于建议)来理解,您运送的第一对夫妇会逐渐变得更好。我认为这对于高层人员极为重要。

我认为,要降低几个级别,他们需要了解精度/召回权衡:模型可能产生的错误类型。您的模型可能会产生假阴性错误或假阳性错误,我认为作为拥有这种选择的产品人员,这非常重要。因此,如果我们在进行文档搜索,我想您会更在乎误报。您更关心精度。您希望最重要的事情有意义。对于大多数搜索问题,您不必获取所有相关信息;您只需要获取足够的相关信息即可。因此,如果某些相关的事情称为不相关,那么您可以接受,对吧?但是,对于其他问题,您需要获得一切。

Sam Ransbotham:可以进行文档搜索。是的,Lyft也是如此。…将其放在您拥有精确度并回想折衷方案的其中一家公司的背景中—误报,误报。

Craig Martell:幸运的是,在Lyft,我们有很好的人类逃生舱口,我认为这非常重要。理想情况下,所有这些建议都应具有人工逃生口。因此,如果我为您推荐了一个目的地,而该目的地是错误的,那就是-

Sam Ransbotham:可以。

克雷格·马爹利(Craig Martell):没有伤害,没有犯规-您只需输入目的地。因此,对于Lyft作为产品,我认为我们很幸运,因为我们的大多数建议-都在尝试降低摩擦以让您搭便车-如果我们没有完全正确地选择它们,那就可以了。那里没有真正的危险。无人驾驶汽车如此艰难,因为您想同时获得它们。您想知道那是行人,并且还想确保您不会错过任何行人。

Sam Ransbotham:让人们陷入困境的想法比仅仅说:“好吧,这里有一些目的地;还有很多。你喜欢哪个?”

克雷格·马爹利:对。

Sam Ransbotham:是的。

Shervin Khodabandeh: Craig,您之前曾谈到过现实生活中的AI是如何进行大量认知科学实验的,因为它最终涉及的是-

克雷格·马爹利(Craig Martell):至少对我来说。

Shervin Khodabandeh:是的。它提出了无意识偏见的想法。因此,作为人类,我们已经更加意识到我们在所有事物上的潜意识偏见,对吗?因为,他们已经在几代人和成见中根深蒂固。

Craig Martell:只是我们过去的经历,对不对?就像,有偏见的世界会造成有偏见的经历,即使您有最佳的意图。

Shervin Khodabandeh:是的-对吗?因此,我想我的问题是,很明显,人工智能存在着意想不到的偏见。您认为我们现在需要考虑什么,以便从现在起的10到20年内,这种偏见并没有根深蒂固,以至于AI的工作原理很难纠正。

克雷格·马爹利(Craig Martell):已经有。所以问题是,我们该如何正确纠正?首先我要说的是,我是在东北电影公司的这部电影《编码的偏见》的小组成员中。如果您还没有看过电影《编码偏见》,您绝对应该看到它。这是与这位麻省理工学院媒体实验室的黑人妇女有关的,这个黑人妇女试图做一个没有用的项目,因为面部识别对黑人女性根本不起作用。这是一个绝对令人着迷的社会研究。当时的研究人员收集了用于训练机器学习的数据集(面部识别算法),当时的研究人员是一群白人男性。这是一个已知问题,对吗?数据集的收集方式存在偏差。看,所有心理学研究都存在类似的偏差。心理研究不适用于我-我今年56岁。心理学研究适用于大学生,因为这是现成的科目。

因此,由于世界的偏见,这些人随手可得,因此这就是数据集的产生方式。因此,即使[没有]恶意,世界还是歪曲了,世界还是有偏见的,数据还是有偏见的;它不适用于许多人。参加培训的女性不多。然后皮肤越黑,情况就越糟。原因有多种技术原因:深色皮肤的对比度较低,等等,等等,等等。但这不是问题。问题是,我们应该以这种方式收集数据吗?数据集的目标是什么?谁是我们的客户?我们想为谁服务?让我们以服务客户的方式对数据进行采样。

我们之前谈到了本科生。我认为那真的很重要。摆脱这种情况的一种方法是工作场所的多样性。我坚信这一点。然后,您要求每个人(包括所有这些不同的组)测试系统,并查看系统是否适用于他们。当我们在Dropbox进行图像搜索时,我们询问了所有员工研究小组:“请搜索过去对您来说有问题的事物,看看我们是否正确。” 如果发现一些错误,我们将返回并收集数据以缓解这些问题。因此,请看:您的系统将因所收集的数据而产生偏差-事实上。事实是,它会因收集的数据而有偏差。您想尽最大努力正确收集它。您可能无法正确聚集,因为您有自己的潜意识偏见,正如你指出的。因此,您必须要求所有将成为您的客户的人尝试一下,尝试一下,以确保它做的正确,而在不行的情况下,请回去收集必要的数据以进行修复。因此,我认为简短的答案是工作场所的多样性。

Sam Ransbotham: Craig,感谢您今天抽出宝贵时间与我们交谈-很多有趣的事情-

克雷格·马爹利(Craig Martell):是的,我很高兴,这些对话真有趣。我对此很书呆子,所以我非常喜欢。

山姆·兰斯伯瑟姆(Sam Ransbotham):您的热情彰显出来。

Shervin Khodabandeh:非常有见地的东西。谢谢你。

克雷格·马爹利:谢谢大家。

Sam Ransbotham:好吧,Shervin,Craig说他在职业生涯中中了彩票,但我认为我们赢得了彩票,是因为他作为我们第二季的第一集的嘉宾。

Shervin Khodabandeh:他提出了很多要点。显然,随着时间的流逝,算法的商品化以及如何将其与战略联系起来,回到关键的业务指标,使变化发生,使用变得越来越重要。…我真的很喜欢他的观点,即从系统中消除偏见需要什么,以及系统中已经存在偏见的程度。

Sam Ransbotham:商品化尤为重要。我认为这引起了我们的共鸣,因为我们是从业务角度谈论这一点的。他的意思是,很多事情将越来越成为业务问题。当是业务问题时,这不是技术问题。我不想打折它的技术方面,当然他肯定会带来很多技术上的麻烦。但是他确实强调了“现在这是一个业务问题”的方面。

Shervin Khodabandeh:是的,在五分钟之内,他基本上为我们的最后两份报告(即2019年和2020年)提供了如此有说服力的论据。

山姆·兰斯伯瑟姆(Sam Ransbotham):好的。

Shervin Khodabandeh:与战略和流程变更以及流程的重新设计和再造有关,与人与AI的交互和采用有关。

萨姆·兰斯伯瑟姆(Sam Ransbotham):还有一个商业问题就是管理上的选择。他也回来了。他在谈论……其中有些事情不是明确的决定。您可以选择哪种方式来犯错。那是管理问题,而不是技术问题。

Shervin Khodabandeh:而且还要求管理人员知道他们在说什么,这意味着他们需要真正了解AI在说什么,它可能在说什么,它的局限性是什么,以及可能的艺术是什么。 。我也非常喜欢这样的观点:随着您与AI的开发人员和构建人员越来越近,您必须真正理解数学和代码,因为否则您将无法对其进行指导。

Sam Ransbotham:尽管,您不担心我们只是碰到了每个人都必须了解所有事情的事情吗?我觉得这很难卖。如果经理必须了解业务以及如何赚钱,他们也必须了解代码。…我的意思是,让所有人都了解一切显然很重要-

Shervin Khodabandeh:嗯,我想问题是,您必须了解所有内容多少?一个好的业务主管已经充分了解了他或她应具备的水平,并提出了正确的问题。我觉得你是对的。但这不是爱因斯坦所说的吗?除非您能描述一个5岁的孩子,否则您不会真正理解它吗?您可以用不同的方式向5岁,20岁和研究生描述重力,他们都将理解重力。问题是,至少您了解它,而不是说:“我不知道有引力之类的东西。”

Sam Ransbotham:因此,基本上,教学和学术工作非常重要。那是谢尔文刚才所说的吗?

Shervin Khodabandeh:我认为经理和高级管理人员需要理解AI本身并不是一个灌篮,因为您提出了正确的问题:正确的理解水平是什么?那么,综合和表达的正确水平是什么,它使您无需了解所有内容就可以做出正确的决定?但这不是成功的业务主管对每个业务问题的处理吗?我想这就是我们要说的:使用AI,您需要了解足够的知识才能进行探究。但是,可以说,这不是黑匣子,就像过去许多技术实现都是黑匣子一样。

萨姆·兰斯伯瑟姆(Sam Ransbotham):这有助于回到整个“学习更多”和“划清界限”的位置,并有助于理解这种平衡。在讨论引力之后,每个人对重力的了解都比以前多了,因此这是从当前状态转移到下一个状态的问题。

Shervin Khodabandeh:是的。

Sam Ransbotham: Craig对工作场所的多样性提出了一些好的意见。如果收集数据的团队对他们的数据集内在的偏见不甚了解,那么算法注定会产生偏见。他指的是电影《编码偏见》和MIT媒体实验室研究员Joy Buolamwini。乔伊(Joy)是算法正义联盟(Algorithmic Justice League)的创始人。我们将在展示说明中提供一些链接,您可以在其中阅读有关Joy和她的研究的更多信息。

感谢您今天加入我们。我们期待着下一集,当我们将与Will Grannis交谈时,他将面临在Google Cloud上构建CTO功能所面临的独特挑战。直到下一次。

退出移动版