基于BERT模型的图书表示学习与多标签分类研究
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.16810/j.cnki.1672-514X.2020.09.007

基于BERT模型的图书表示学习与多标签分类研究

引用
中文图书细粒度多标签分类的自动化,有利于促进图书的检索与学科的沟通.文章充分发挥BERT语言模型的微调特性,提出一种通过21类粗粒度分类微调语言模型,学习到更好的图书表示,进而实现细粒度分类的新策略.结果显示,在单标签的分类任务上,BERT模型的正确率分别较LSTM与Fasttext模型提升约4.9%与2.0%.KNN-ML对257类的细粒度多标签分类证明了前期微调的有效性.最佳情况下,有75.82%的图书细粒度类别恰好全部预测正确,92.10%的图书至少被正确预测了一个细粒度类别.因此可以得出结论,该系统有助于实现图书自动的细粒度归类,并帮助图书标引者补充合理的分类号.

中文图书、BERT模型、深度学习、微调策略、多标签分类

G254.1(图书馆学、图书馆事业)

本文系国家社科基金青年项目"面向汉语国际教育的智能测试技术研究"项目编号:18CYY029

2020-11-24(万方平台首次上网日期,不代表论文的发表时间)

共7页

38-44

相关文献
评论
暂无封面信息
查看本期封面目录

新世纪图书馆

1672-514X

32-1691/G2

2020,(9)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn