Skip to footer

人工智能和机器学习正越来越多地将自动化决策以植入设备或机构服务的形式,嵌入到我们的日常生活中。基于数据来决定结果,现在已经是一个通行的做法。对于人工智能到底是如何利用数据做出的决策,人们要么是一无所知,要么是全凭猜测。

然而,算法决策会产生巨大的影响。从推荐看什么电影这种小事情,到贷款批准、面试人员遴选,甚至确刑事判决准则等等,黑匣子算法的使用正在改变我们的生活。

我们要接受基于人工智能做出的决策,首先要信任创建人工智能的公司。此类公司以及人工智能的部署方要对人工智能给出的结果负责。因此,这些公司必须建立透明的指导方针,说明他们的解决方案如何运作,并由可审计的开发和部署机制证实。

我们并不是说所有问题都有解决方案,在这篇博文中,我们将探讨公司可以通过哪些方法,为决策的可追溯性、可预测性和可问责性提供支持。

一种通用方法 - 以目标为出发点

要应对可解释的人工智(Explainable AI)能带来的挑战,企业首先要识别人工智能可能造成的有利和不利后果,并考虑不利结果的纠正方法,以消除潜在的风险领域。举例来说,这种不利结果可能是造成性别或种族偏见。此外,在审视结果和后果时,公司还会面临下一级的挑战 - 如何检验每种结果?每种潜在的结果都能保证公平性吗?公司可如何在征得所需同意后收集数据以产生公平的结果?

单纯地强调某个结果可能产生的不利后果,会就如何管理成果产生不同的思维过程。

以招聘预测为例 - 我们可以开发一个模型来接收简历并预测求职人是否适合某个岗位。模型给出的结果可能就是简单的“是”或“否”。

在方案设计阶段制定明确的标准会驱动两种行为。首先,项目的范围现在不仅包括构建和创建人工智能模型,还包括开发和创建确认和验收标准。其次,它形成了对目标和决策的可追溯性,可提供初级的问责制。

测试和监测结果以提高透明度

当项目范围定义不仅包含人工智能和机器学习模型的开发,还包括以可操作的方式对结果进行确认和验证时,企业可以沿着三个高度关联的工作流开发项目:

  • 工作流1:通过聚类、分类、训练和测试等常规活动进行模型开发。重点是去除导致有偏见的结果的特征及其代理物。

  • 工作流2:开发多种机制来证明模型具有可解释性。此活动有多种方法可用,包括决策树以及使用LIME和Shapely值等模型诊断技术。根据要解决的问题以及每种模型的优缺点,可以使用单个模型或组合使用多个模型。

  • 工作流3:建立和测试将监测人工智能模型的结果和方法。如上所述,在定义问题时,需要不断监测人工智能给出的结果是否公平。如果需要,可以设计和开发一种组织流程并实现制度化,以解决对所部署的模型提出的疑问。如果模型给出的结果数量太多,企业团队无法人工管理,则需要开发一套有效的抽样方法。

三个工作流的结果都要进行基线化,并部署到生产中。投入生产后,应通过清晰的管控和报告流程来确保结果的可审计性和可见性。报告要涵盖模型、操作性能、可解释性值、外部质疑及其结果等各个方面的内容。没有产生计划结果的模型将被重新配置,甚至撤销。

在公司范围内部署可解释的人工智能

很多公司在心底认为,可解释的人工智能只适用于与人相关的结果。然而,如果他们建立一个政策,使所有基于模型的决策都是可解释的,那么他们就可以严格和有纪律地部署这些模型。

例如,某家公司的供应商管理团队可能会因为预测的组件故障,取消与一个供应商的合同。该供应商需要了解该决定是如何达成的,可解释的人工智能模型可以让他们看到这一点。

当可解释的人工智能/机器学习成为模型开发的常态时,企业就会明白其必要性,进而可以优化和自动化开发流程。

通过治理最大化可解释人工智能的使用

不管是基于人还是机器组件进行决策,都必须保证透明度。随着企业大规模推出自动化解决方案,他们可以通过解释人工智能模型的作用,确定它如何实现这些结果,并纠正任何不合理的结果,从而确保人工智能的透明度。清晰的治理确保了问责制和透明度,这对于培养公司最终客户的信任感至关重要。

About the author

图像 Ged Roberts

Ged Roberts

Ged Roberts is the Global Head of Operations and Delivery Excellence for HiTech at TCS. With over 30 years of experience, he is responsible for maintaining a single global service standard across the business unit, and for ensuring that TCS' customers experience certainty and assured service delivery.