基于注意力机制和双向长短时记忆的机器翻译
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

基于注意力机制和双向长短时记忆的机器翻译

引用
近年来,随着深度学习的发展,利用神经网络进行机器翻译逐渐成为工业界和学术界的主流方法.现有的汉英机器翻译模型普遍采用基于注意力机制的深度神经网络结构.然而,同时对长序列和短序列进行建模仍然是一个具有挑战性的问题,尤其是对于中医词汇的翻译,专有词语和词汇之间的关联性也极大地影响机器翻译效果.因此,文章提出了一个集成注意力机制的双向长短时记忆的机器翻译模型.首先,以词向量作为机器翻译模型的输入数据,对翻译过程中使用的语言符号进行数学化处理;其次,设计了两种注意力机制:局部注意力机制和全局注意力机制.局部注意力机制主要用于学习输入序列中哪些单词或短语对建模更重要,而全局注意力机制用于学习输入序列中哪一层表达向量更关键.双向长短时记忆模型可以更好地融合输入序列中的特征信息,而具有注意力机制的双向长短时记忆模型可以同时对短序列和长序列进行建模.实验结果表明,与现有的多种翻译模型相比,基于注意力机制的双向长短时记忆模型能有效提高中医词汇机器翻译的质量.

机器翻译、注意力机制、长短时记忆模型、中医词汇

H319.3(英语)

陕西省哲学社会科学重大理论与现实问题研究项目2021HZ-835

2023-07-10(万方平台首次上网日期,不代表论文的发表时间)

共6页

89-94

相关文献
评论
暂无封面信息
查看本期封面目录

外语电化教学

1001-5795

31-1036/G4

2023,(2)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn