1、可解释ai定义
可解释人工智能概念的起源要 追溯到 2004 年,VAN LENT et al.首先运用英文缩写XAI表示可解释人工智能,可解释人工智能的概念由此诞生。然而,VAN LENT et al.对可解释人工智
能的研究仅局限于探讨全谱命令(full spectrum command,FSC)
系统在军事仿真和电脑游戏中的应用,这与现在人们对可解释人工智能的理解存在较大差异。经历十数年的研究,目前较为公认的定义是,可解释人工智能(explainable
artificial
intelli-gence,XAI)是一套针对AI系统应用过程生成解释性内容的技术方案,致力于解决AI系统中由模型可解释性不足产生的可靠性、透明性、因果性、公平性和安全性等一系列问题。可解释性的增强为AI模型更加深入和广泛的应用创造了有利条件,为大数据时代推动AI技术发展、深化AI技术应用、实现良好的人机协同和人机共生提供有利契机。
2、可解释ai应用领域
(1)学术研究领域
视觉计算:卷积神经网络中层相关关系的传播
自然语言处理:基于层相关传播词语与文本分类结果的相关度
推荐系统:基于协同过滤的知识库嵌入
情感分析:医疗应用中的可解释情感分析
异常检测:用基于层相关传播的可解释深度学习模型检测工业异常
语音识别:基于层相关传播和循环神经网络的可解释语音识别
(2)医疗领域
主要用于:基于乳腺疾病影像的计算机辅助诊疗;不良药物反应预测;术中低氧血症的预防预测以及阿尔茨海默病的诊断
此外,可解释ai在人机交互、教育、交通、金融、法律和军事等领域均有相关应用研究。
![可解释AI 可解释AI](//ziboxinyan.com/FileUpload/ueditor_s/upload/2022-2/21/63780012579161.png)
3、可解释ai应用面临的挑战
(1)可解释人工智能行业应用范围的拓展
目前,可解释人工智能的发展只在医疗等需求较为迫切的领域引发了热烈反响,研究者对可解释方法的探索也比较集中地面向医疗健康行业。然而,AI发展涉及的行业范围很广,这些行业对于AI技术的应用都面临不同程度的可解释性的需求。随着可解释人工智能的发展,更多领域将显现出对可解释性的需求,可解释人工智能的应用范围也将由医疗、计算机视觉和人机交互等热点领域向其他领域扩展。
(2)可解释人工智能行业应用程度的深化
已有可解释人工智能研究对可解释性的界定比较模糊,对可解释性的评判也非常笼统,用户应当如何理解透明性、因果性和可靠性这些可解释指标,这些指标代表了多大程度的可解释性,是否能够满足用户实际的可解释性需求,多个可解释方案之间应该如何取舍,这些问题不仅阻碍了可解释人工智能在方法层面的深入发展,也影响了可解释人工智能在行业的深入应用,使可解释人工智能始终停留在概念意义上。因此,对可解释性的需求和评价有待进一步量化或具体化,只有当用户能够直接捕捉和利用可解释性信息时,可解释人工智能才能真正为AI技术在行业中的应用发挥作用。
(3)可解释人工智能与AI系统的融合
AI技术的应用和推广催生了一大批智能化产品,作为专门为AI系统提供解释的可解释人工智能系统,其在行业中的应用需要与具体的AI产品或AI场景相融合、相适应。就目前的可解释人工智能研究看,其建立的多种可解释方法相互之间是孤立的,方法的设计对模型的针对性太强,反而没有很好地针对具体的AI系统或AI产品的应用。
推荐阅读:《腾讯研究院:可解释ai发展报告 2022(50页).pdf》
《普华永道:2021年可解释人工智能报告(英文版)(27页).pdf》
《毕马威:人工智能控制人工智能有助于提升透明性可解释性和可信性(24页).pdf》