面向鲁棒口语理解的声学组块混淆语言模型微调算法
利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果.但是,当将其应用于口语语言理解(spoken language understand-ing,SLU)任务时,由于前端语音识别(automatic speech recognition,ASR)的错误,会导致SLU精度的下降.因此,本文研究如何增强PLM提高SLU模型对ASR错误的鲁棒性.具体来讲,通过比较ASR识别结果和人工转录结果之间的差异,识别出连读和删除的文本组块,通过设置新的预训练任务微调PLM,使发音相近的文本组块产生类似的特征嵌入表示,以达到减轻ASR错误对PLM影响的目的.通过在3个基准数据集上的实验表明,所提出的方法相比之前的方法,精度有较大提升,验证方法的有效性.
自然语言理解、口语语言理解、意图识别、预训练语言模型、语音识别、鲁棒性、语言模型微调、深度学习
18
TP18(自动化基础理论)
2023-03-03(万方平台首次上网日期,不代表论文的发表时间)
共7页
131-137