10.3969/j.issn.1003-2053.2024.01.002
生成式人工智能社会实验的伦理问题及治理
2022年年末以来,以ChatGPT为代表的生成式人工智能(AIGC)驱动了大语言模型(LLM)从"判别范式的弱人工智能"转向"生成范式的强人工智能"的范式变革,并将"强拟人化"特性介入了人工智能社会实验场景.这种特性源于实验者长期以反映真实世界对话场景的大型文本数据语料库来训练LLM的结果,所具有的类人心智功能表现出涌现、创制、泛化等特点并衍生了"不诚实拟人化"的新伦理特征,这些又反过来对AIGC社会实验造成了负面影响.本文通过揭示并解析该实验场景内的拟人化认知倾向滥用、理智德性消减、多元化偏见风险叠加与"实验者效应"非道德强化等拟人化伦理问题,提出应基于"制度-原则-策略-引导"四维视角,来前瞻性构建AIGC社会实验的伦理治理机制.
生成式人工智能、社会实验、强拟人化、拟人化伦理
42
N0(自然科学理论与方法论)
浙江省社科规划青年课题AIGC;24NDQN069YB
2024-02-26(万方平台首次上网日期,不代表论文的发表时间)
共7页
3-9