结合Bert字向量和卷积神经网络的新闻文本分类方法
目前的文本分类大多使用词向量,且词向量大多由Word2vec,Glove等方法训练得到,其存在的问题是部分文本中词语的数量较多而训练速度较慢,且准确率受到切词的影响.由于中文字词和英文差异较大,提出结合Bert字向量的文本分类方法.Bert是一个由Google提出的以Transformer为基础的自然语言处理通用模型,它提供了汉语字符级别的词向量即字向量.利用Bert字向量并使用卷积神经网络对新闻进行文本分类.在准确率较高的情况下,其效率高于结合词向量的文本分类方法.
Bert、CNN、文本分类、字向量、新闻
16
TP391(计算技术、计算机技术)
中央高校基本科研业务专项资金项目"利用深度学习实现多功能文本处理器"项目编号201910200111002
2020-03-28(万方平台首次上网日期,不代表论文的发表时间)
共2页
187-188