AI可解释性概述AI可解释性是指人工智能系统的行为和决策过程对人类用户来说是透明和可理解的。随着人工智能技术在各个领域的广泛应用,可解释性的重要性日益凸显。特别是在涉及到关键决策的领域,如国防、金融、医疗等,AI的可解释性是决定其能否广泛应用的重要因素。以下是关于AI可解释性的详细解释:
1.可解释AI的需求背景
在人类历史上,技术进步、生产关系逻辑、伦理法规的发展是动态演进的。当一种新的技术在实验室获得突破后,其引发的价值产生方式的变化会依次对商品形态、生产关系等带来冲击。而当新技术带来的价值提升得到认可后,商业逻辑的组织形态在自发的调整过程中,也会对技术发展的路径、内容甚至速度提出诉求,并当诉求得到满足时适配以新型的伦理法规。在这种相互作用中,技术系统与社会体系会共振完成演进,是谓技术革命。例如,人脸识别准确率达到97%以上,谷歌智能语音助手回答正确率在2019年的测试中达到92.9%。在这些典型场景下,深度学习在智能表现上的性能已经超过了普通人类(甚至专家),从而到了撬动技术更替的临界点。
然而,深度学习得到的模型是个黑盒,无法从模型的结构或权重中获取模型行为的任何信息,从而使这些场景下责任追踪和分发的中枢无法复用,导致人工智能在业务应用中遇到技术和结构上的困难。在金融风控场景,通过深度学习模型识别出来小部分用户有欺诈嫌疑,但是业务部门不敢直接使用这个结果进行处理,因为难以理解结果是如何得到的,从而无法判断结果是否准确,担心处理错误;而且缺乏明确的依据,如果处理了,也无法向监管机构交代。
2.可解释AI的定义和目标
可解释AI(eXplainableAI,XAI)是为AI算法所做出的决策提供人类可读的以及可理解的解释。它的目的是解决用户面对模型黑盒遇到的问题,包括:用户知道AI系统为什么这样做,也知道AI系统为什么不这样做;用户知道什么时候可以信任AI系统;用户知道AI系统为什么做错了。
3.实现可解释AI的方法
实现可解释AI主要有三种方法:基于数据的可解释性、基于模型的可解释性和基于结果的可解释性。第一类是基于数据的可解释性,通常称为深度模型解释,主要是基于数据分析和可视化技术,实现深度模型可视化,直观展示得到模型结果的关键依据。第二类是基于模型的可解释性,这类方法也称为可解释模型方法,主要是通过构建可解释的模型,使得模型本身具有可解释性,在输出结果的同时也输出得到该结果的原因。第三类是基于结果的可解释性,此类方法又称为模型归纳方法,思路是将已有模型作为一个黑盒,根据给定的一批输入和对应的输出,结合观察到模型的行为,推断出产生相应的结果的原因。
4.可解释性AI的应用场景
人工智能的可解释