基于RoBERTa-wwm-ext与混淆集的中文文本校对模型
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.3969/j.issn.1000-2375.2023.00.005

基于RoBERTa-wwm-ext与混淆集的中文文本校对模型

引用
中文文本自动校对技术是自然语言处理领域中的主要任务之一.针对中文文本中字粒度级别的错误(音似、形似和义似替换错误),提出一种基于 RoBERTa-wwm-ext与混淆集的中文文本校对模型.该模型在 RoBERTa-wwm-ext结构的基础上,利用 transformer结构中的 encoder机制读取整段中文文本序列,然后通过 softmax 函数计算当前字符权重分布来判断该字符是否错误,并在纠错任务中引入混淆集,使用混淆集找到该错字对应的候选字符,最后结合掩码语言模型给出的修改建议,完成文本校对.在SIGHAN2014 与SIGHAN2015 中文拼写检查数据集上,设计字粒度级别的中文文本校对实验,对比模型性能.实验结果表明,与当前主流的中文文本校对模型相比,该模型的中文文本校对效果表现更佳,文本校对的准确率、召回率、F1 值均有所提升.

自然语言处理、掩码语言模型、RoBERTa-wwm-ext、混淆集、transformer结构

45

TB324.1(工程材料学)

国家自然科学基金62102136

2023-09-15(万方平台首次上网日期,不代表论文的发表时间)

共7页

712-718

相关文献
评论
暂无封面信息
查看本期封面目录

湖北大学学报(自然科学版)

1000-2375

42-1212/N

45

2023,45(5)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn