10.3969/j.issn.1671-539X.2021.07.006
人工智能可解释性与评估方法
由于AI缺乏可解释性,人们无法得知AI作出错误决策的原因,也很难直接改进AI模型,因此对人工智能可解释性的研究非常必要.通过研究提出了 AI可解释性的概念和研究的必要性,综合目前主流的研究成果,提出了实现AI可解释性的建模前、建模中、建模后三类方法,在此基础上提出AI模型可解释性的评估方法.
人工智能、可解释性、评估、方法
2021-08-23(万方平台首次上网日期,不代表论文的发表时间)
共7页
21-26,32