自学内容网 自学内容网

文献阅读分享:DKN(WWW2018) - 深度知识感知网络在新闻推荐中的应用

标题期刊年份关键词
DKN: Deep Knowledge-Aware Network for News RecommendationThe 2018 Web Conference (WWW 2018)2018新闻推荐、知识图谱、深度学习、点击率预测

🌟 研究背景

随着互联网的迅猛发展,新闻阅读习惯逐渐从传统媒体向在线平台转移。然而,在线新闻平台面临着信息过载的难题,海量新闻内容让用户难以找到符合兴趣的新闻。为了解决这一问题,个性化新闻推荐系统应运而生。新闻推荐系统需要在短时间内为用户推荐与其兴趣相关的新闻,以提高用户体验和平台的点击率。新闻语言通常高度凝练,蕴含着丰富的知识实体和常识信息。然而,传统的推荐方法往往忽视了这些外部知识,无法充分挖掘新闻间的潜在知识级联系,导致推荐结果局限于简单模式,无法合理扩展用户的阅读兴趣。

🔍 相关工作

  • 传统推荐方法:如基于内容的推荐、协同过滤等,这些方法在新闻推荐中存在局限性。基于内容的推荐方法主要关注新闻文本的表面特征,难以捕捉深层次的知识关联;协同过滤方法则依赖于用户的历史行为数据,对于新闻这种时效性极强的物品,容易出现冷启动问题。
  • 知识图谱在推荐中的应用:近年来,知识图谱作为一种结构化的知识表示形式,逐渐被引入推荐系统中。通过将知识图谱中的实体和关系与推荐任务相结合,可以更好地理解用户的兴趣和物品的属性。例如,在电影推荐中,利用知识图谱可以发现不同电影之间的共同演员、导演等关联信息,从而为用户提供更准确的推荐。
  • 深度学习在推荐中的应用:深度学习技术在推荐系统中展现出强大的能力。卷积神经网络(CNN)、循环神经网络(RNN)等模型可以捕捉文本、图像等数据中的复杂特征,提高推荐的准确性和个性化程度。例如,利用CNN可以提取新闻文本中的关键信息,捕捉用户的兴趣偏好。

🧠 模型图输入输出转变

DKN模型的输入包括候选新闻和用户点击历史。候选新闻以新闻标题的形式输入,用户点击历史则包含用户之前点击过的新闻标题序列。模型的输出是用户点击候选新闻的概率,即点击率(CTR)预测结果。通过将知识图谱信息融入模型中,DKN能够将新闻的语义信息和知识信息进行融合,从而更准确地捕捉用户兴趣和新闻间的潜在联系。

💡 创新点

  • 知识图谱的深度融合:DKN首次将知识图谱嵌入信息与新闻推荐任务相结合,通过KCNN模块实现了新闻语义信息和知识信息的深度融合。这种融合方式能够更好地捕捉新闻间的潜在知识级联系,提高推荐的准确性和个性化程度。
  • 多通道和词-实体对齐的KCNNKCNN的设计充分考虑了新闻文本中词和实体的对齐关系,将词嵌入、实体嵌入和上下文实体嵌入作为多通道输入,并在卷积过程中保持它们的对齐。这种多通道和对齐的设计使得模型能够更有效地结合不同来源的信息,提高特征提取的效果。
  • 动态注意力机制:DKN引入了注意力机制来动态聚合用户的历史兴趣,能够根据候选新闻的不同特点,自动调整用户点击历史中不同新闻的权重。这种动态聚合方式能够更好地捕捉用户兴趣的变化,提高推荐的实时性和适应性。

🛠️ 方法介绍

DKN的核心是知识感知卷积神经网络(KCNN)和注意力机制。KCNN将新闻的词嵌入、实体嵌入和上下文实体嵌入作为多通道输入,通过卷积操作提取新闻的特征表示。具体来说,KCNN首先将新闻标题中的每个词与其对应的实体和上下文实体进行关联,然后将这些嵌入信息进行对齐和堆叠,形成多通道的输入矩阵。接着,应用多个不同窗口大小的卷积核对输入矩阵进行卷积操作,捕捉新闻中的局部模式和语义信息。最后,通过最大池化操作提取最重要的特征,得到新闻的最终表示。

注意力机制则用于动态聚合用户的历史兴趣。对于每个候选新闻,注意力网络会计算用户点击历史中每条新闻与候选新闻之间的相关性权重。具体来说,将用户点击历史中的每条新闻表示与候选新闻表示进行拼接,然后通过一个深度神经网络(DNN)和softmax函数计算出权重。这些权重反映了用户点击历史中不同新闻对当前候选新闻的影响程度。最终,根据权重对用户点击历史进行加权求和,得到用户对当前候选新闻的综合兴趣表示。

 

 🧪 实验

实验数据集来自Bing News服务器日志,包含2016年10月16日至2017年8月11日的用户点击数据。实验评估指标包括F1值和AUC值,用于衡量模型的准确性和鲁棒性。DKN在实验中表现出色,相较于其他基线模型(如LibFM、KPCNN、DSSM等),在F1值和AUC值上均取得了显著提升,证明了其在新闻推荐任务中的有效性。此外,实验还对DKN的不同变体进行了对比分析,验证了知识图谱嵌入、注意力机制等组件对模型性能的影响。


原文地址:https://blog.csdn.net/HE2096798708/article/details/145166674

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!