面向鲁棒口语理解的声学组块混淆语言模型微调算法
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.11992/tis.202109024

面向鲁棒口语理解的声学组块混淆语言模型微调算法

引用
利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果.但是,当将其应用于口语语言理解(spoken language understand-ing,SLU)任务时,由于前端语音识别(automatic speech recognition,ASR)的错误,会导致SLU精度的下降.因此,本文研究如何增强PLM提高SLU模型对ASR错误的鲁棒性.具体来讲,通过比较ASR识别结果和人工转录结果之间的差异,识别出连读和删除的文本组块,通过设置新的预训练任务微调PLM,使发音相近的文本组块产生类似的特征嵌入表示,以达到减轻ASR错误对PLM影响的目的.通过在3个基准数据集上的实验表明,所提出的方法相比之前的方法,精度有较大提升,验证方法的有效性.

自然语言理解、口语语言理解、意图识别、预训练语言模型、语音识别、鲁棒性、语言模型微调、深度学习

18

TP18(自动化基础理论)

2023-03-03(万方平台首次上网日期,不代表论文的发表时间)

共7页

131-137

相关文献
评论
暂无封面信息
查看本期封面目录

智能系统学报

1673-4785

23-1538/TP

18

2023,18(1)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn