站点图标 产品经理的人工智能学习库

如何建立一个可信的AI系统 (Trustworthy AI)

好文分享

好文分享

本文转自机器之能,原文地址

作者简介:童超,创新奇智产品总监,负责产品规划及管理工作。毕业于乔治华盛顿大学,获得MBA学位,并于香港科技大学获得理学硕士学位。

最近AI伦理科学家Timnit Gebru被大佬Jeff Dean炒鱿鱼的事情搞的沸沸扬扬,两人几番论战也没有明确的结论。但从与朋友的交谈中,让大家更感兴趣的不是这件事情的是非因果,而是Gebru的职位:AI伦理科学家,这是个什么角色,作用是什么?AI又与“伦理”有何联系……而有“伦理”的AI又需要是什么样子?

为何AI会与伦理这个社会科学产生交集

AI是一门自然科学,伦理又是比较纯粹的社会科学,有一些研究背景的同学就会发现,当两者发生交集的时候,我们面对的很有可能是一个哲学问题了……我们这里不讨论让人纠结和烧脑的哲学逻辑,只涉及AI为何会产生这样与传统技术不同的问题。

“不确定”的本质让AI的决策天生隐含争议

我们打开AI算法(机器学习)的盒子,会发现任何AI模型的输出结果都可以分解为一连串的小数 – 概率,比如AI的结果输出某人信用卡的交易是一笔盗刷,实际上模型输出的结果是P(盗刷 | 也许是个条件概率) = 0.971。这样的决策输出,显然与我们普适接受的“铁证如山”、“铁一般的事实”有不小的出入,这种天生带来的不确定性会让AI参与甚至决定一些重要的决定时收到质疑,甚至争议。那么,当我们利用AI的能力时,如何可以明晰或者接受这种不确定性,就显得尤为重要。更为关键的是,理解并接受这种不确定性不仅仅是技术问题,更是一个需要完整、全面思考的认知问题。一个备受争议的例子,强如Google,还是会犯下如此严重的错误:把我们的黑人朋友识别为大猩猩……Google因为这样的错误,又需要多少公关资源来弥补这样的“不确定”输出?

AI的出现转换了决策主体,必然带来伦理的挑战

当我们放开双手双脚,把自己交给一个L4的自动驾驶车辆时,显然在道路上的车辆决策主体发生了转移:从司机转移到了车辆,或者更具体的 – AI。与此同时,我们更应该意识到,决策主体的转移会带来责任的转移,无论是车辆安全、道路安全还是行人安全,AI将负担起或者应当成为这种责任主体。我们假设,在高速路上,正在无人驾驶的车辆出现了事故,撞击了行人或者一头鹿,那么谁来负这个最终的责任?车辆的生产商是否需要负责?研发AI的企业是否需要负责?为AI采集和标注数据的个人需要负责?毫无疑问,如果我们把这样的一个系统逻辑延伸到任何行业尤其是与人类关键行为相关的场景时,AI的这种快速革新替代带来的是伦理和立法的重新审视,保证我们安全无忧地与AI相处。


号外 – 关于美国政府对Trustworthy AI的行政命令

就在12月3日,白宫发布了针对AI应用的行政命令(行政命令的定义请各位自行补课)

《Executive Order on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government》

总结来讲,白宫要求与美国政府预算相关的所有AI应用都要保证遵循以下的原则:

(1) Lawful and respectful of Nation’s value – 服务国家利益

(2) Purposeful and performance-driven – 实用优先

(3) Accurate, reliable and effective – 性能优异

(4) Safe, secure and resilient – 安全保障

(5) Understandable – 用户尤其是SME(Subject Matter Expert)可以理解

(6) Responsible and traceable – AI的权责体系分明

(7) Regularly monitored – AI全程可追踪

(8) Transparent – 面向监管的100%透明

(9) Accountable – 组织围绕AI的体系保障

以上的原则,全部都对AI的设计、建设和运营提出了完全新层次的要求,不仅要可用,好用,更要敢用,放心用,公平的用。能够明确的是,正在发生的科技大战中,美国已经在布局更完整的AI体系了。

 

可信的AI系统组成

在这里,我们用一个典型的AI流程来观察一个可信的AI系统都需要包含什么元素,用接下来的几个小节来分别展开具体的内容。

可信的AI系统 – 从数据开始

说到Timnit Gebru,我们不妨从她的一篇论文开始探索如何建立一个可信的、AI可用的数据资源,也可以解释AI伦理科学家的一部分工作。以下的结构一部分参考了Gebru的论文《Datasheets for Datasets》,具体内容不再标注:

数据对于机器学习可以类比粮食对人类的重要程度。当我们启动AI项目时,第一步必然是要厘清涉及的数据资源,为我们需要的数据集建立完整的生命周期的档案,能够帮助参与到AI项目的所有人(包含数据工程师、算法工程师、业务专家)对于这个最重要资产有全面和一致的认识。在这里,我们使用一种静态(同样是这个方式的现有局限)的方式做出记录,通过一系列的问题引导出需要的信息,逐步形成一份数据集的数据表(Datasheet)。从数据的使用流程上来看,需要覆盖的是:

(1)规划阶段:在使用数据集之前,需要对数据使用的目的以及数据的组成做出明确的解释,保证后续使用数据的人能够对数据的创建目的有最直接的理解,并且提升完整的AI流程的“透明”程度

使用目的:

数据组成:

(2)使用阶段:数据的使用阶段,清晰翔实的数据信息可以显著地减少数据工程师和算法工程师冷启动的时间,提升团队内部和团队之间的沟通效率。

数据收集:

预处理/标注:

数据使用:

(3)运营阶段:这个阶段是数据集通过分析或者建模之后直接面向用户或者场景提供服务能力,持续地更新和追踪数据集,能够及时管理数据和模型的效果和性能,也保证应用的可信程度。

数据分发:

数据维护:

一个完整的例子可以参考论文中的样例

以上的问题尽可能详细,保证我们在观察和使用数据时,都可以从技术、业务、商业、法律、伦理多个维度来分析数据在完整的AI流程中的可信度。

 

可信的AI系统 – 模型的“黑盒子”

对于AI的信任程度,除了对原始数据的考察之外,更让人捉摸不透的是那些看起来神秘且复杂的机器学习模型,如果无法理解或者接受这些模型,由模型输出的结果必然也会收到质疑。这样的问题在一些与社会资源相关的公共问题上尤为明显,例如就业、医疗、金融服务、执法等。在美国有这样的一个例子,一些地方法院法官开始利用AI模型进行嫌疑犯量刑的刑期预测,我们暂不展开讨论这个应用的正义性,假设从法律和道德上可以接受,那么能够让法官放心使用的一个核心考量就是他们是否能够理解AI模型,能够认为AI做出的判断与他们的逻辑相符。

在这里,我又会提到Gebru,在研究中,她的Google团队以及多伦多大学的学者共同提出了一种类似于Datasheets的方法 – Model Cards(模型卡片)。模型卡片是一个附在几个发布的机器学习模型的1-2页的记录描述,用于向相应的读者解释模型的多维度信息,以求打开AI模型的“黑盒子”。

一个模型卡片可以分为以下的几个元素:

模型详情:

模型用例:

模型要素:

模型指标:

评价数据:

训练数据:

量化分析:

伦理考量:

提醒&建议:

给出一个例子:

模型卡片的输出延续了针对数据的Datasheets的方法,通过一系列的问题形成一个可以执行的思维框架,连接不同的AI利益相关人共同提升AI的透明度和可信度。在我看来,这也是目前为止AI的伦理研究给出的最接地气的方案,推进很难,但这个功课对于任何一个成熟的AI应用来讲,迟早都是要补上的课。

 

可信的AI系统 – 人机协作

AI的技术视角从来都是以“无人化”、“自动化”作为追求的目标,这显然也是我们希望AI能够实现的目标,但从解决问题的产品或者社会视角来看,AI的应用更好的方式一定是人机协作或者人机协同,缺少了AI的人力,就是回到之前的生活,缺乏了一些效率,人类的工作要更枯燥乏味一些;但是缺少了人的AI,则很有可能面对的是失败、滥用甚至叛乱。

在人与AI的协作当中,形成的完整循环(Human-in-the-loop AI)让这两种思考对象形成合力,更快、更准确地解决共同的问题。

从HILP的角度来看,创造一个可信的AI我们同样要试着回答自己这几个问题:

(1)人与AI是否有共同要解决的任务,我们在设计和开发阶段是否能够保证这两方的利益相同?

(2)人是否能够从数据开始在每一个环节都可以参与到AI的输入和输出,保证人的随时介入与信息输入?

(3)AI的设计能否及时甚至实时响应人的正确建议和调整方向,优化算法目标?

(4)人是否可以及时从这个人机协作的系统中及时抽取前所未见的洞察或者知识纳入自己的知识体系?

实现一个人机协作的AI系统是不容易的,但有了这样的人机协同,可信这样的一个结果呈现就可以融入到人机协作的每一次操作与建议中,变成一种过程变量,信任也会形成累积效应,降低了“可信”的门槛和周期。

可信的AI系统 – 第三方认证

自从产生信用这个词开始,信用都一定需要一个机构进行背书,大到国家,小到专家认证,才能够支撑信用体系的运行和延续。那么从AI的应用开始,如果要建设一个可信的系统,建设方就一定需要一个第三方的背书,来从外部验证信用,并且AI的消费者或者使用方也可以最快速度得到这一份信用的确认。从现在来看,可能会有几种方式:

(1)GDPR(General Data Protection Regulation):从GDPR来看,这是适用企业需要无条件遵守的,并不是一个资格证书。但是符合GDPR的认证或者认可,目前还没有统一的方式,我们可以通过ISO体系的一些认证和专家的指导来只限符合GDPR框架的“认证”;

(2)CCPA(California Consumer Privacy Act):从2018年开始执行,加州的要求与GDPR性质相同,我们也无法直接进行认证,而是需要类似的方法按照CCPA的要求寻找已经存在的认证方式;

(3)等保认证:我们国家公安部颁布的信息系统安全等级保护认证,这应该是国内企业最直接可以得到的权威认证;

(4)ISO体系认证;

(5)各行业的行业公约或者协议:比如银行业的巴塞尔公约等;


Reference

1、《Datasheets for Datasets》, Timnit Gebru, Jamie Morgenstern, Briana Vecchione, Jennifer Wortman Vaughan, Hanna Wallach, Hal Daumé III, Kate Crawford

2、《model cards for model reporting》, Margaret Mitchell, Simone Wu, Andrew Zaldivar, Parker Barnes, Lucy Vasserman, Ben Hutchinson, Elena Spitzer, Inioluwa Deborah Raji, Timnit Gebru

3、《Executive Order on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government》

4、《GDPR Regulations》

5、《CCPA Fact Sheet》

6、https://www.partnershiponai.org/

退出移动版