强人工智能设备面临的伦理困境与风险
基于"人是目的"的价值设定而建立起的"伦理至善"第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题."有限的道德合法性"为其谋求到了一个伦理存在空间.以致命性自主武器系统(LAWS)为例,"有限性"的前置条件则让关于其"道德责任代理人"的准确识别与划分成为首要问题.以道德判断能力为标准,将作为"工具"的机器和作为"具有实践智慧"的人做明确划分是准确识别LAWS责任代理人的逻辑基础.基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为"非道德"的机器在应用中也可能会遭遇"不道德的人"的伦理难题.这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁.从这个角度看,谨防出现基于"技术野蛮"的"寡头恐怖主义"这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制.
强人工智能、致命性自主武器、有限的道德合法性、道德主体、寡头恐怖主义
B82;C916;D815
国家社会科学基金20CZX057
2023-04-24(万方平台首次上网日期,不代表论文的发表时间)
共10页
58-67