基于NN-Attention的中文短文本摘要
在以往的Attention模型中,只采用了Bidirectional-RNN,BRNN对上下文信息是有效的,但是无法提取文本的高维特征,所以引入了CNN.因为基于矩阵变换的Attention模型无法对CNN抽取的特征进行表征,所以采用全连接神经网络对Attention模型进行改进,提出了NN-Attention.为了加速模型的训练,采用的循环神经网络为GRU.实验采用CSTSD数据集,并用TensorFlow完成模型的构建.实验结果表明,该模型在CSTSD数据集中可以较好地实现文本摘要的自动生成.
中文、短文本、摘要、GRU、CNN、NN-Attention
29
2020-07-23(万方平台首次上网日期,不代表论文的发表时间)
共7页
166-172