基于RoBERTa和对抗训练的中文医疗命名实体识别
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.14135/j.cnki.1006-3080.20210909003

基于RoBERTa和对抗训练的中文医疗命名实体识别

引用
BERT(Bidirectional?Encoder?Representations?from?Transformers)和神经网络模型相结合的方法目前已被广泛应用于中文医疗命名实体识别领域.但BERT在中文中是以字为粒度切分的,没有考虑到中文分词.而神经网络模型往往局部不稳定,即使微小的扰动也可能误导它们,导致模型的鲁棒性差.为了解决这两个问题,提出了一种基于RoBERTa(A?Robustly Optimized?BERT?Pre-training?Approach)和对抗训练的中文医疗命名实体识别模型(AT-RBC).首先,使用RoBERTa-wwm-ext-large(A?Robustly?Optimized?BERT?Pre-training Approach-whole?word?masking-extended?data-large)预训练模型得到输入文本的初始向量表示;其次,在初始向量表示上添加一些扰动来生成对抗样本;最后,将初始向量表示和对抗样本一同依次输入双向长短期记忆网络和条件随机场中,得到最终的预测结果.在CCKS?2019数据集上的实验结果表明,AT-RBC模型的F1值达到了88.96%;在Resume数据集上的实验结果表明,AT-RBC模型的F1值也达到了97.14%,证明了该模型的有效性.

医疗命名实体识别、RoBERTa-wwm-ext-large、对抗训练、双向长短期记忆网络、条件随机场

49

TP391.1(计算技术、计算机技术)

2023-03-08(万方平台首次上网日期,不代表论文的发表时间)

共9页

144-152

相关文献
评论
暂无封面信息
查看本期封面目录

华东理工大学学报(自然科学版)

1006-3080

31-1691/TQ

49

2023,49(1)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn