10.15994/j.1000-0763.2020.12.011
人们对人工智能做道德决策的厌恶感之源及解决之道
为了借助人工智能来应对当代社会的道德滞后问题,跨学科、跨文化的大量研究都在关注对人工道德智能体的设计、实现和发展.然而,一个更为重要的元问题应该是:人们究竟是否希望由人工智能做道德决策?来自道德心理学家和神经科学家的一些实证研究表明,答案是否定的,并且该厌恶感的来源可能在于人们认为人工智能缺乏完全的、完整的心智.而要想有效提高人们对人工智能做道德决策的接受度,一方面应将道德决策主体的合法范围延伸至人工智能,另一方面则应进一步对人工智能进行拟人化,提高人工智能被感知到的体验性(热情)和能动性(能力、专长性),以增强人类与人工智能之间的共情和信任,同时还应特别注意利用伊丽莎效应并避免恐怖谷效应.
人工道德智能体、道德决策、道德滞后问题、心智感知、拟人化
42
N031(科学的方法论)
教育部人文社会科学研究青年基金项目"理性行动的认知规范研究";国家社科基金青年项目"拟人化人工智能的道德责任归因研究"
2021-03-19(万方平台首次上网日期,不代表论文的发表时间)
共7页
80-86