10.3969/j.issn.1673-5692.2019.12.006
可信任的人工智能系统及安全框架浅析
作为一项能够融入社会生活各个方面的技术,人工智能正在引发一系列关键变革,同时也带来了在政治、军事、社会治理等各个方面的安全威胁,既需要制定人工智能的安全框架保障人工智能系统本身不被对手利用,又需要发展可信任的人工智能机制提升人工智能系统本身的安全性.本文首先从定义、分类和度量的角度解析了人工智能的内涵,列举了人工智能可能带来的安全威胁.在威胁分析的基础上,参考传统的安全模型提出了以安全策略和安全边界为核心的人工智能安全框架.最后,结合人类社会中的管理制度和传统信息系统的安全管理规则提出人工智能系统需要具备容错机制、权限机制、可解释机制等特点,发展人工智能需要将可信任放在首位.
人工智能、安全框架、可信任系统
14
TP18;F49(自动化基础理论)
国家重点研发计划;中国电科装备预研联合基金
2020-04-29(万方平台首次上网日期,不代表论文的发表时间)
共6页
1253-1258