结合全局信息的深度图解耦协同过滤
基于GCN的协同过滤模型通过用户物品交互二部图上的信息聚合过程生成用户节点和物品节点的表示,预测用户对物品的偏好.然而,这些模型大多没有考虑用户不同的交互意图,无法充分挖掘用户与物品之间的关系.已有的图解耦协同过滤模型建模了用户的交互意图,却忽略了图全局信息,没有考虑用户节点和物品节点的本质特征,造成表示语义不完整;并且由于受到模型迭代结构的影响,意图解耦学习的过程并不高效.针对上述问题,设计了结合全局信息的深度图解耦协同过滤模型G2DCF(Global Graph Disentangled Collaborative Filtering).该模型构建了图全局通道和图解耦通道,分别学习节点的本质特征和意图特征;通过引入正交约束和表示独立性约束,使用户-物品的交互意图尽可能唯一防止意图退化,同时提高不同意图下表示的独立性,提升模型的解耦效果.对比已有的图协同过滤模型,G2 DCF能更综合地刻画用户特征和物品特征.在3个公开数据集上进行了实验,结果表明G2 DCF在多个评价指标上优于对比方法;分析了表示分布的表示独立性和表示均匀性,验证了模型的解耦效果;同时从收敛速度上进行了对比,验证了模型的有效性.
推荐系统、协同过滤、解耦表示学习、图神经网络、全局信息
50
TP181(自动化基础理论)
国家自然科学基金;北京市自然科学基金;国家科技研发计划;中国人工智能学会-华为MindSpore学术奖励基金;中国科学院重点实验室开放基金
2023-02-07(万方平台首次上网日期,不代表论文的发表时间)
共11页
41-51