10.13266/j.issn.0252-3116.2018.13.008
基于行为-内容融合模型的用户画像研究
[目的/意义]为识别并去除非理性投资者的网络评论,提升评论的专业程度与质量,促进理性投资,本文以识别股吧中的用户是否属于噪声投资者为研究任务,进行用户画像.[方法/过程]对股吧的用户发文内容进行深度用户表示学习(deep user representation learning),结合股吧用户的粉丝数量、影响力、关注量、自选股、吧龄、发帖量、评论量、访问量等行为特征,提出一种行为-内容融合模型(behaviour and content combined model,BCCM),并在标注数据集上进行实证与对比研究.[结果/结论]实验结果显示,该模型对噪声投资者识别的F1值为79.47%,优于决策树方法(69.90%)、SVM方法(75.61%)、KNN方法(73.21%)和ANN方法(74.83%).在噪声投资者识别这一特定用户画像研究任务中,通过利用深度用户表示学习引入文本内容特征,能够显著提升用户画像的各种评价指标.
用户画像、情感分析、用户表示学习、特征融合
62
TP391(计算技术、计算机技术)
国家自然科学基金面上项目“大数据环境下基于领域知识获取与时齐的观点检索研究”71373286;教育部哲学社会科学研究重大课题攻关项目“提高反恐怖主义情报信息工作能力对策研究”17JZD034
2018-08-27(万方平台首次上网日期,不代表论文的发表时间)
共10页
54-63