10.19734/j.issn.1001-3695.2021.07.0317
基于注意力迁移的跨语言关系抽取方法
针对互联网上日渐丰富的多语言文本和匮乏大规模标注平行语料库的问题,为了从多语言的信息源挖掘语言间的关联性与扩展知识图谱,提出了基于注意力迁移的跨语言关系提取方法.首先针对语言间的实际平行语料情况,分类进行跨语言平行语料映射,并针对缺乏种子词典的低资源语言对,提出神经网络翻译模型获取目标语言数据集并保存多语言间的对应注意力权重关系,然后利用BERT端对端的联合抽取模型抽取训练数据实体关系特征,反向迁移语言间注意力权重关系,最后利用反向迁移的注意力进行增强的关系抽取.实验表明,该模型的关系提取效果相比其他模型在准确率和回归上都有所提升,在缺乏双语词典情况下也表现出较好的性能.
神经机器翻译;关系提取;无监督;注意力迁移;BERT预训练
39
TP391.1(计算技术、计算机技术)
2022-02-24(万方平台首次上网日期,不代表论文的发表时间)
共7页
417-423