随着信息技术和互联网的发展, 人们逐渐从信息匮乏的时代走入了信息过载的时代.如何快速而精准地从浩瀚的数据海洋中帮助用户获取感兴趣的信息, 已成为亟需解决的问题.推荐系统作为一种有效的信息过滤技术, 是解决这一问题的重要手段[1-4].推荐系统通过收集和分析用户的历史行为来学习用户的喜好, 从而向用户推荐可能感兴趣的信息和服务.目前, 推荐系统已在很多领域得到了应用, 并为企业带来了可观的商业价值[5-8].
在推荐系统领域, 矩阵分解模型因具有较好的理论基础[9-13]、良好的扩展性[14-16]等优点, 受到了学术界和工业界的广泛关注[16-19].传统的矩阵分解模型通过分解用户-物品的评分矩阵来获得用户和物品的潜在特征矩阵, 然后根据两者的乘积预测目标用户对特定物品的喜好程度.Salakhutdinov等人从概率角度解释了传统矩阵分解模型的合理性, 并提出概率矩阵分解模型(probabilistic matrix factorization, 简称PMF)[20]和贝叶斯概率矩阵分解模型(Bayesian probabilistic matrix factorization, 简称BPMF)[21], 使得矩阵分解模型可高效地处理大规模数据, 并取得较理想的推荐效果.在Netflix竞赛期间, Koren等人[22]在PMF的基础上, 综合用户的偏置、物品的偏置及用户的隐式反馈信息, 提出SVD++算法, 从而将矩阵分解模型在推荐系统中的应用推向了一个新的高度.
社交网络的普及, 为物品推荐应用中用户之间社会关系的获取提供了便利条件, 这种关系丰富了单个用户的信息, 从而能够更好地对用户建模.如何将用户之间的社会关系融入传统矩阵分解模型中, 是当前推荐系统研究的热点之一.研究者们[23-28]以此为出发点, 提出多种社会化推荐算法, 并取得了良好的效果.目前, 社会关系与传统矩阵分解模型结合的方式主要有两种[29].
● 其一, 通过同时分解社会关系矩阵和评分矩阵并共享用户潜在特征矩阵的方式来对用户和物品进行建模[23-25].例如:Ma等人[23]将用户的社会关系信息与评分信息相结合, 提出SoRec算法; Guo等人[25]将用户之间的信任关系强度融入PMF, 提出信任关系强度敏感的推荐算法StrengthMF;
● 其二, 将社会关系以正则化的方式来约束用户潜在特征矩阵的学习[26-28].例如, Ma等人[26]使用用户的社会关系信息设计了社会正则化, 并将其用于约束PMF的目标函数, 提出SoReg算法; Jamali等人[27]将社交网络中的信任传播结构与PMF结合, 提出SocialMF算法, 该算法考虑了直接和间接信任的用户对目标用户评分的影响.
在物品推荐应用中, 除用户之间的社会关系外, 物品之间也存在一定的关联关系, 例如手机与手机配件之间的关联关系、衣服和鞋子之间的关联关系.物品之间的这种关联关系通常也会影响用户是否购买某一物品, 如何有效地获取物品之间的关联关系并将其应用到推荐系统中, 仍是当前研究的难点问题, 主要体现在:
(1) 物品之间关联关系是隐式的:用户之间的社会关系可通过社交网络直接获取, 而物品之间的关联关系却是隐式的, 无直接获取的途径;
(2) 物品之间的关联关系应是有向的:向购买手机的用户推荐手机配件成功的概率通常会比较高, 反向推荐则不一定成功.因此在获取物品之间关联关系时, 考虑有向性更为合理;
(3) 物品之间相关程度计算方法的合理性:在计算物品之间的相关程度时, 既要从微观的角度考虑两个物品个体之间的相关程度, 又要从全局角度分析两个物品相关程度的强弱;
(4) 如何将有向的关联关系融入到推荐模型中:在物品推荐过程中, 考虑的因素越多, 推荐模型越复杂, 求解空间越大, 因此需要一种有效的机制将关联关系融入到推荐模型中.
在已有的工作中:Sun等人[30]通过评分的时序信息来建立用户-物品的消费网络图, 并构建用户之间和物品之间的近邻关系, 然后将两者融入PMF中, 提出基于时序行为的协同过滤推荐算法; Wu等人[31]通过标签信息来构造用户和物品的相似性关系, 并将两者融入PMF中, 提出基于近邻的概率矩阵分解模型; Gu等人[32]通过使用物品的属性信息来获取物品的相似性关系, 并将其与社会关系相结合, 以图正则化的方式融入非负矩阵分解中, 提出基于图正则权重的非负矩阵分解模型; Liang等人[35]在解决推荐系统的物品排序任务时, 通过物品之间共现矩阵的点对互信息来计算物品之间的相关程度, 并与权重矩阵分解模型相结合, 提出联合分解模型CoFactor.这些工作通过不同的途径来获取物品之间的关联关系并将其应用到推荐领域中, 在一定程度上虽提高了传统推荐算法的性能, 但仍存在一定的问题.例如:文献[30-34]需借助外部信息(评分时间信息[30]、标签信息[31]、物品属性信息[32-34])来获取物品之间的关联关系, 然而现实应用中, 由于物品的外部信息通常不易大量获取, 这在一定程度上限制了算法的应用范围; 文献[31-37]获取的关联关系是无向的, 无法更好地反映物品之间真实的关联关系.
针对物品之间关联关系获取这一难点问题, 本文在不借助外部信息的前提下, 综合物品之间的支持度与置信度, 提出一种从全局-局部角度计算物品之间相关程度的方法, 且由此所得关联关系是有向的.进一步, 综合考虑物品的关联关系、用户的社会关系, 将它们融入到传统矩阵分解模型中, 提出一种基于联合正则化的矩阵分解模型, 并给出相应的推荐算法CRMF(co-regularized matrix factorization).本文主要贡献有:
(1) 给出一种仅从用户-物品的交互矩阵中获取物品之间关联程度的计算方法, 它通过支持度与置信度, 分别从全局和局部角度来考虑物品之间的相关程度, 且由此所获取物品之间的关联关系具有有向性;
(2) 提出一种基于联合正则化的矩阵分解模型, 证明了联合正则化是一种加权原子范数, 理论上保证了该模型更加低秩, 从而使得在预测评分时采用较少的模型参数便可获得较为理想的推荐效果;
(3) 联合正则化矩阵分解模型因考虑自适应正则化, 使得构建的CRMF推荐算法应用于大规模非平衡数据集时更易搜索到合适的正则化超参数.
在4个真实数据集上的实验表明:CRMF与主流的推荐算法相比, 不仅可以缓解用户的冷启动问题, 而且能够更有效地预测不同类型用户的实际评分.
1 相关知识在本文中, 我们使用Euclid Math One字体
●
●
此外, 我们使用PT表示矩阵的转置, tr(P)表示矩阵的迹, I=diag(I11, I22, …, Inn)表示一个对角矩阵, |
传统矩阵分解模型的基本思想[14, 20]:假设在推荐系统中存在m个用户和n个物品, 对于给定的评分矩阵R∈
$ f=\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}+\frac{\lambda }{2}(||\mathit{\boldsymbol{P}}||_{F}^{2}+||\mathit{\boldsymbol{Q}}||_{F}^{2})}} $ | (1) |
其中, P∈
在社交网络中, 社会相关性理论指出, 人们比较喜欢与自己兴趣相投的用户建立连接, 因此, 目标用户决策时容易受到信任用户的影响, 且用户之间的信任度越高, 受影响程度越大.Ma等人[26]认为, 社会关系是用户之间兴趣相似的先验知识, 并提出用于约束传统矩阵分解目标函数的社会正则化, 如公式(2)所示:
$ \frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{v\in \mathcal{S}_{u}^{+}}{{{\mathit{\boldsymbol{S}}}_{uv}}||{{\mathit{\boldsymbol{p}}}_{u}}-{{\mathit{\boldsymbol{p}}}_{v}}||_{2}^{2}}}=tr[{{\mathit{\boldsymbol{P}}}^{T}}({{\mathit{\boldsymbol{D}}}^{p}}-\mathit{\boldsymbol{S}})\mathit{\boldsymbol{P}}]=tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{L}}}^{p}}\mathit{\boldsymbol{P}}) $ | (2) |
其中,
● S表示社会关系矩阵;
● Suv表示用户u与用户v的相似度, 由公式(3)计算得到:
$ {{\mathit{\boldsymbol{S}}}_{uv}}=\frac{\sum\limits_{j\in ({{\mathcal{P}}_{u}}\cap {{\mathcal{P}}_{v}})}{({{\mathit{\boldsymbol{R}}}_{uj}}-{{{\mathit{\boldsymbol{\bar{R}}}}}_{u}})({{\mathit{\boldsymbol{R}}}_{vj}}-{{{\mathit{\boldsymbol{\bar{R}}}}}_{v}})}}{\sqrt{\sum\limits_{j\in ({{\mathcal{P}}_{u}}\cap {{\mathcal{P}}_{v}})}{{{({{\mathit{\boldsymbol{R}}}_{uj}}-{{{\mathit{\boldsymbol{\bar{R}}}}}_{u}})}^{2}}}}\sqrt{{{\sum\limits_{j\in ({{\mathcal{P}}_{u}}\cap {{\mathcal{P}}_{v}})}{({{\mathit{\boldsymbol{R}}}_{vj}}-{{{\mathit{\boldsymbol{\bar{R}}}}}_{v}})}}^{2}}}} $ | (3) |
●
● 矩阵Dp是与用户相关的对角矩阵, 且
● 矩阵Lp=Dp-S是与用户相关的拉普拉斯矩阵;
●
●
公式(2)与公式(1)结合, 可得社会正则化的矩阵分解模型的目标函数, 如公式(4)所示:
$f=\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}}}+\frac{\lambda }{2}(||\mathit{\boldsymbol{P}}||_{F}^{2}+||\mathit{\boldsymbol{Q}}||_{F}^{2})+\frac{\beta }{2}tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{L}}}^{p}}\mathit{\boldsymbol{P}}) $ | (4) |
其中, β控制着社会关系在用户决策时所占的比重.上述目标函数通过社会正则化的方式约束用户潜在特征向量的学习, 使得当目标用户为冷启动用户时, 其潜在特征向量更多地表现为社交网络中近邻用户的特征因子.但该模型潜在假设物品之间是相互独立的, 忽略了现实世界中物品之间普遍存在着关联关系的事实.
2 联合正则化的矩阵分解 2.1 物品之间关联关系的获取物品之间的关联关系在推荐应用中是影响用户决策的重要因素之一, 如何从用户-物品之间的交互矩阵中有效地量化物品之间的关联程度并获取它们之间有向的关联关系, 是推荐过程中核心步骤之一.文献[34]指出, 数据挖掘中关联规则的支持度(Support)与置信度(Confidence)可在一定程度上反映物品j与物品i之间的相关程度, 计算方法分别如公式(5)和公式(6)所示:
$ Support\left( j,i \right)=|{{\mathcal{Q}}_{i}}\cap {{\mathcal{Q}}_{j}}\left| / \right|{{\mathcal{R}}^{tr}}| $ | (5) |
$ Confidence(j\to i)=|{{\mathcal{Q}}_{i}}\cap {{\mathcal{Q}}_{j}}\left| / \right|{{\mathcal{Q}}_{j}}| $ | (6) |
其中, |
为解决上述获取物品之间关联关系的不足之处, 在综合考虑物品之间支持度与置信度的基础之上, 本文定义了物品之间关联程度的计算方法, 如公式(7)所示:
$ {{\mathit{\boldsymbol{W}}}_{ji}}=\frac{Support(j,i)}{Support(j,i)+\varphi }\times Confidence(j\to i)=\frac{|{{\mathcal{Q}}_{i}}\cap {{\mathcal{Q}}_{j}}|}{|{{\mathcal{Q}}_{i}}\cap {{\mathcal{Q}}_{j}}|+\rho }\times \frac{|{{\mathcal{Q}}_{i}}\cap {{\mathcal{Q}}_{j}}|}{|{{\mathcal{Q}}_{j}}|} $ | (7) |
其中, W表示物品之间的关联关系矩阵, Wji表示物品j与物品i之间的关联程度, ϕ≥0是一个适用于所有物品的超参数, ρ=ϕ|
由公式(7)可知:在不借助外部信息的前提下, 仅从用户-物品之间的交互矩阵中便可获取物品之间的关联关系.由于Confidence(i→j)≠Confidence(j→i), 则Wij≠Wji, 因此, 本文所定义的公式(7)可在一定程度上反映物品之间关联关系的有向性.
在下文中, 使用
获取到物品的关联关系之后, 我们可将其应用到已有的矩阵分解模型.此时, 物品的潜在特征向量将受到存在关联关系的物品的影响.与社会正则化相似, 由物品的关联关系可得出关联正则化, 如公式(8)所示:
$ \frac{1}{2}\sum\limits_{j=1}^{n}{\sum\limits_{i\in \mathcal{W}_{j}^{+}}{{{\mathit{\boldsymbol{W}}}_{ji}}||{{\mathit{\boldsymbol{q}}}_{j}}-{{\mathit{\boldsymbol{q}}}_{i}}||_{2}^{2}}}=tr[{{\mathit{\boldsymbol{Q}}}^{T}}({{\mathit{\boldsymbol{D}}}^{q}}-\mathit{\boldsymbol{W}})\mathit{\boldsymbol{Q}}]=tr({{\mathit{\boldsymbol{Q}}}^{T}}{{\mathit{\boldsymbol{L}}}^{q}}\mathit{\boldsymbol{Q}}) $ | (8) |
其中, 矩阵Dq是与物品相关的对角矩阵且
$ f=\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}}}+\frac{\lambda }{2}(||\mathit{\boldsymbol{P}}||_{F}^{2}+||\mathit{\boldsymbol{Q}}||_{F}^{2})+\frac{\beta }{2}tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{L}}}^{p}}\mathit{\boldsymbol{P}})+\frac{\alpha }{2}tr({{\mathit{\boldsymbol{Q}}}^{T}}{{\mathit{\boldsymbol{L}}}^{q}}\mathit{\boldsymbol{Q}}) $ | (9) |
其中, 超参数α > 0用于控制物品的关联关系在推荐过程中所占的比重.
上述目标函数在求解模型参数时, 用于避免过拟合的正则化对于每个用户(物品)使用相同的超参数, 使得学习与系统交互频繁的用户(物品)的潜在特征向量时可能出现欠拟合, 在学习与系统交互较少的用户(物品)的潜在特征向量时可能出现过拟合.Salakhutdinov等人[39]认为:在学习用户(物品)的潜在特征向量时, 根据用户(物品)的评分数量进行不同程度的惩罚会比较合理, 由此可知需考虑自适应正则化.由文献[39]分析可知, 矩阵分解模型结合本文的自适应正则化后有如下优点:其一, 评分的分布可为非均匀分布; 其二, 只需较少的评分样本即可获得较高的评分预测精度; 其三, 对于大规模非平衡数据集, 更易搜索到合适的正则化参数.我们将其与公式(9)结合, 可得基于联合正则化的矩阵分解的目标函数, 如公式(10)所示:
$ f=\overbrace{\frac{\lambda }{2}\left( \sum\limits_{u=1}^{m}{|{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}||{{\mathit{\boldsymbol{p}}}_{u}}||_{2}^{2}}+\sum\limits_{j=1}^{n}{|{{\mathcal{Q}}_{u}}{{|}^{-\frac{1}{2}}}||{{\mathit{\boldsymbol{q}}}_{j}}||_{2}^{2}} \right)}^{自适应正则化}+\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}}}\\ +\frac{\beta }{2}tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{L}}}^{p}}\mathit{\boldsymbol{P}})+\frac{\alpha }{2}tr({{\mathit{\boldsymbol{Q}}}^{T}}{{\mathit{\boldsymbol{L}}}^{q}}\mathit{\boldsymbol{Q}}) \\ =\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}}}+\underbrace{\frac{1}{2}tr({{\mathit{\boldsymbol{P}}}^{T}}{{{\mathit{\boldsymbol{\tilde{L}}}}}^{p}}\mathit{\boldsymbol{P}})+\frac{1}{2}tr({{\mathit{\boldsymbol{Q}}}^{T}}{{{\mathit{\boldsymbol{\tilde{L}}}}}^{q}}\mathit{\boldsymbol{Q}})}_{联合正则化} \\ $ | (10) |
其中,
为了说明联合正则化的有效性, 我们以下给出详细的理论分析.根据文献[40]可知:核范数是基于原子集
同样可假设V∈
$ \mathcal{F}=\{{{a}_{i}}={{\mathit{\boldsymbol{p}}}_{i}}\mathit{\boldsymbol{q}}_{i}^{T}:{{\mathit{\boldsymbol{p}}}_{i}}=\mathit{\boldsymbol{A}}{{\mathit{\boldsymbol{x}}}_{i}},{{\mathit{\boldsymbol{q}}}_{i}}=\mathit{\boldsymbol{B}}{{\mathit{\boldsymbol{z}}}_{i}},||{{\mathit{\boldsymbol{x}}}_{i}}|{{|}_{2}}=||{{\mathit{\boldsymbol{z}}}_{i}}|{{|}_{2}}=1\} $ | (11) |
其中, 加权原子集
$ ||\mathit{\boldsymbol{\hat{R}}}|{{|}_{\mathcal{F}}}=\inf \sum\nolimits_{{{a}_{i}}\in \mathcal{F}}{|{{c}_{i}}|},\ \ {\rm{ s}\rm{.t}\rm{. }}\ \ \mathit{\boldsymbol{\hat{R}}}=\sum\nolimits_{{{a}_{i}}\in \mathcal{F}}{{{c}_{i}}}{{a}_{i}} $ | (12) |
定理1. 对于任意的
$ ||\mathit{\boldsymbol{\hat{R}}}|{{|}_{\mathcal{F}}}=\underset{\mathit{\boldsymbol{P}},\mathit{\boldsymbol{Q}}}{\mathop{\rm{inf}}}\,\frac{1}{2}\{||{{\mathit{\boldsymbol{A}}}^{-1}}\mathit{\boldsymbol{P}}||_{F}^{2}+||{{\mathit{\boldsymbol{B}}}^{-1}}\mathit{\boldsymbol{Q}}||_{F}^{2}\},\ \ {\rm{ s}\rm{.t}\rm{. }}\ \ \mathit{\boldsymbol{\hat{R}}}=\mathit{\boldsymbol{P}}{{\mathit{\boldsymbol{Q}}}^{T}} $ | (13) |
证明:对于满足
$ {{\mathit{\boldsymbol{p}}}_{i}}=\sqrt{|{{c}_{i}}|}\mathit{\boldsymbol{A}}{{\mathit{\boldsymbol{x}}}_{i}},{{\mathit{\boldsymbol{q}}}_{i}}=\sqrt{|{{c}_{i}}|}\mathit{\boldsymbol{B}}{{\mathit{\boldsymbol{z}}}_{i}}.||{{\mathit{\boldsymbol{A}}}^{-1}}\mathit{\boldsymbol{P}}||_{F}^{2}=\sum\limits_{i}{||{{\mathit{\boldsymbol{A}}}^{-1}}{{\mathit{\boldsymbol{p}}}_{i}}||_{2}^{2}}=\\ \sum\limits_{i}{||{{\mathit{\boldsymbol{A}}}^{-1}}\sqrt{|{{c}_{i}}|}\mathit{\boldsymbol{A}}{{\mathit{\boldsymbol{x}}}_{i}}||_{2}^{2}}=\sum\limits_{i}{\sqrt{|{{c}_{i}}|}||{{\mathit{\boldsymbol{A}}}^{-1}}\mathit{\boldsymbol{A}}{{\mathit{\boldsymbol{x}}}_{i}}||_{2}^{2}}=\sum\nolimits_{i}{|{{c}_{i}}|}. $ |
相似地, 我们可得出
由
由
由此可得
由均值不等式可得出
进一步得出
因此可得
又因
推论1. 联合正则化是一种加权的原子范数.
证明:由上述定理可得
对公式(10)中的矩阵
将其带入
令
$ ||{{\mathit{\boldsymbol{A}}}^{-1}}\mathit{\boldsymbol{P}}||_{F}^{2}=tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{U}}}_{p}}{{\mathit{\boldsymbol{S}}}_{p}}\mathit{\boldsymbol{U}}_{p}^{T}\mathit{\boldsymbol{P}}),||{{\mathit{\boldsymbol{B}}}^{-1}}\mathit{\boldsymbol{Q}}||_{F}^{2}=tr({{\mathit{\boldsymbol{Q}}}^{T}}{{\mathit{\boldsymbol{U}}}_{q}}{{\mathit{\boldsymbol{S}}}_{q}}\mathit{\boldsymbol{U}}_{q}^{T}\mathit{\boldsymbol{Q}}) $ |
因此可得出
根据定理1可得出, 本文所提出的联合正则化是一种加权原子范数.
在矩阵分解求解模型参数时, 根据文献[41, 42]可知:考虑加权原子范数, 能使得模型更加低秩且能获得较高的预测精度.因此, 证明联合正则化是一种加权原子范数, 从理论上能够说明考虑联合正则化的矩阵分解在预测评分时采用较少的模型参数便可获得较为理想的推荐效果.
文献[22]的研究表明, 考虑用户的偏置、物品的偏置以及用户的隐式反馈信息可提高推荐算法的精度.我们将其与基于联合正则化的矩阵分解模型结合, 可得改进后的目标函数, 如公式(14)所示:
$ \begin{align} & f=\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{{{({{{\mathit{\boldsymbol{\hat{R}}}}}_{uj}}-{{\mathit{\boldsymbol{R}}}_{uj}})}^{2}}}}+\frac{1}{2}\{tr({{\mathit{\boldsymbol{P}}}^{T}}{{{\mathit{\boldsymbol{\tilde{L}}}}}^{p}}\mathit{\boldsymbol{P}})+tr({{\mathit{\boldsymbol{Q}}}^{T}}{{{\mathit{\boldsymbol{\tilde{L}}}}}^{q}}\mathit{\boldsymbol{Q}})\}+ \\ & \frac{\lambda }{2}\left( \sum\limits_{u=1}^{m}{|{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}\mathit{\boldsymbol{b}}_{p}^{u}\mathit{\boldsymbol{b}}_{p}^{u}}+\sum\limits_{j=1}^{n}{|{{\mathcal{Q}}_{j}}{{|}^{-\frac{1}{2}}}\mathit{\boldsymbol{b}}_{q}^{j}\mathit{\boldsymbol{b}}_{q}^{j}}+\sum\limits_{k\in {{\mathcal{P}}_{u}}}{|{{\mathcal{Q}}_{k}}{{|}^{-\frac{1}{2}}}||{{\mathit{\boldsymbol{y}}}_{k}}||_{2}^{2}} \right) \\ \end{align} $ | (14) |
其中, bp, bq分别表示用户和物品的偏置向量,
每个物品k关联的一个隐式反馈向量yk∈
$ {{\mathit{\boldsymbol{\hat{R}}}}_{uj}}=\mathit{\boldsymbol{b}}_{p}^{u}+\mathit{\boldsymbol{b}}_{q}^{j}+\mu +{{({{\mathit{\boldsymbol{p}}}_{u}}+|{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}\sum\nolimits_{k\in {{\mathcal{P}}_{u}}}{{{\mathit{\boldsymbol{y}}}_{k}}})}^{T}}{{q}_{j}} $ | (15) |
其中, μ表示全局平均评分.
图 1详细展示了社交网络中基于联合正则化的矩阵分解推荐过程.
2.3 CRMF算法
本文使用SGD求解联合正则化的矩阵分解模型的参数, 由此可得出CRMF算法的详细流程见表 1.
在表 1的算法流程中, 核心步骤是对梯度
$ \begin{align} & \partial f/\partial \mathit{\boldsymbol{b}}_{p}^{u}=\sum\nolimits_{j\in {{\mathcal{P}}_{u}}}{{{e}_{uj}}}+\lambda |{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}\mathit{\boldsymbol{b}}_{p}^{u},\partial f/\partial \mathit{\boldsymbol{b}}_{q}^{j}=\sum\nolimits_{u\in {{\mathcal{Q}}_{j}}}{{{e}_{uj}}}+\lambda |{{\mathcal{Q}}_{j}}{{|}^{-\frac{1}{2}}}\mathit{\boldsymbol{b}}_{q}^{j},\forall k\in {{\mathcal{P}}_{u}},\partial f/\partial {{\mathit{\boldsymbol{y}}}_{k}} \\ & =\sum\nolimits_{k\in {{\mathcal{P}}_{u}}}{{{e}_{uj}}|{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}{{\mathit{\boldsymbol{q}}}_{j}}}+\lambda |{{\mathcal{Q}}_{k}}{{|}^{-\frac{1}{2}}}{{\mathit{\boldsymbol{y}}}_{k}}, \\ & {\text{令}}{{f}_{1}}=\frac{1}{2}\sum\limits_{u=1}^{m}{\sum\limits_{j\in {{\mathcal{P}}_{u}}}{e_{uj}^{2}}}+\frac{\lambda }{2}\left( \sum\limits_{u=1}^{m}{|{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}||{{\mathit{\boldsymbol{p}}}_{u}}||_{2}^{2}}+\sum\limits_{j=1}^{n}{|{{\mathcal{Q}}_{j}}{{|}^{-\frac{1}{2}}}||{{\mathit{\boldsymbol{q}}}_{j}}||_{2}^{2}} \right), \\ & {{f}_{2}}=\frac{\beta }{2}tr({{\mathit{\boldsymbol{P}}}^{T}}{{\mathit{\boldsymbol{L}}}^{p}}\mathit{\boldsymbol{P}})+\frac{\alpha }{2}tr({{\mathit{\boldsymbol{Q}}}^{T}}{{\mathit{\boldsymbol{L}}}^{q}}\mathit{\boldsymbol{Q}}), \\ & \partial {{f}_{1}}/\partial {{\mathit{\boldsymbol{p}}}_{u}}=\sum\nolimits_{j\in {{\mathcal{P}}_{u}}}{{{e}_{uj}}{{\mathit{\boldsymbol{q}}}_{j}}}+\lambda |{{\mathcal{P}}_{u}}{{|}^{-\frac{1}{2}}}{{\mathit{\boldsymbol{p}}}_{u}},\partial {{f}_{2}}/\partial {{\mathit{\boldsymbol{p}}}_{u}}=\frac{\beta }{2}(\sum\nolimits_{v\in \mathcal{S}_{u}^{+}}{{{\mathit{\boldsymbol{S}}}_{uv}}({{\mathit{\boldsymbol{p}}}_{u}}-{{\mathit{\boldsymbol{p}}}_{v}})} \\ & +\sum\nolimits_{g\in \mathcal{S}_{u}^{-}}{{{\mathit{\boldsymbol{S}}}_{ug}}({{\mathit{\boldsymbol{p}}}_{u}}-{{\mathit{\boldsymbol{p}}}_{g}})}), \\ & \partial {{f}_{1}}/\partial {{\mathit{\boldsymbol{q}}}_{j}}=\sum\nolimits_{u\in {{\mathcal{Q}}_{j}}}{{{e}_{uj}}({{\mathit{\boldsymbol{p}}}_{u}}+\sum\nolimits_{k\in {{\mathcal{P}}_{u}}}{{\mathit{\boldsymbol{y}}_{k}}})}+\lambda |{{\mathcal{Q}}_{j}}{{|}^{-\frac{1}{2}}}{{\mathit{\boldsymbol{q}}}_{j}},\partial {{f}_{2}}/\partial {{\mathit{\boldsymbol{q}}}_{j}}= \\ & \frac{\alpha }{2}(\sum\nolimits_{i\in \mathcal{W}_{j}^{+}}{{{\mathit{\boldsymbol{W}}}_{ji}}({{\mathit{\boldsymbol{q}}}_{j}}-{{\mathit{\boldsymbol{q}}}_{i}})}+\sum\nolimits_{o\in \mathcal{W}_{j}^{-}}{{{\mathit{\boldsymbol{W}}}_{oj}}({{\mathit{\boldsymbol{q}}}_{j}}-{{\mathit{\boldsymbol{q}}}_{o}})}), \\ \end{align} $ |
其中,
为了对比不同信息对推荐结果的影响, 本文使用4个含有评分信息和社会关系的数据集对提出的算法进行验证, 分别为Flixster(http://www.cs.ubc.ca/~jamalim/datasets/), Epinions(http://www.trustlet.org/epinions.html), Ciao(http://www.cse.msu.edu/~tangjili/trust.html),FilmTrust(http://www.librec.net/datasets.html).Flixster是基于社交网络的电影评论网站, 用户可对电影做出[0.5, 5.5]范围内的评分, 步长是0.5.Ciao是物品评论网站, 用户可对物品做出[1, 5]范围内的评分.FilmTrust是基于信任关系的电影推荐网站, 用户可根据自己的喜好对电影做出[0.5, 4]范围内的评分, 其步长是0.5.Epinions是物品评论数据集, 包含40 163个用户和139 738个物品上的664 824个评分, 该数据集非常接近实际应用的数据量, 因此它可用于考察模型的实际性能.实验中所使用的4个数据集的统计特性见表 2.
本文将数据集分成训练集和测试集, 训练集用于学习推荐算法中的参数, 测试集用于评估推荐算法的准确性.在实验中, 按照4:1的比例将4个数据集随机地分成训练集和测试集.本文的实验是在Windows 7操作系统, 64G内存, Intel(R) Xeon(R) CPU E5-2620 0@2.00GHz的机器上进行, 实验程序基于Java语言和集成开发工具Eclipse4.5实现.
3.2 评价指标为了评估推荐算法的性能, 本文使用平均绝对误差(mean absolute error, 简称MAE)和均方根误差(root mean squared error, 简称RMSE)作为实验结果的评价指标, 两种评价指标的计算方式如公式(16)和公式(17).通过计算预测评分与真实评分的差别来衡量推荐结果的准确性, 其值越小, 推荐准确性越高.
$ MAE = \frac{1}{{|{\mathcal{R}^{te}}|}}\sum\limits_{(u,j) \in {\mathcal{R}^{te}}} {|{R_{uj}} - {{\hat R}_{uj}}|} $ | (16) |
$ RMSE = \sqrt {\frac{1}{{|{\mathcal{R}^{te}}|}}\sum\limits_{(u,j) \in {\mathcal{R}^{te}}} {{{({R_{uj}} - {{\hat R}_{uj}})}^2}} } $ | (17) |
其中,
在实验中, 我们选择基于Librec(http://www.librec.net)平台来实现并验证CRMF算法.为了验证社会关系和关联关系在推荐过程中所起的作用, 本文选取了6种主流的推荐算法与CRMF进行了详细对比, 并在表 3中给出了7种推荐算法中的超参数在4个数据集上的最佳取值.此外, 实验2~实验6中设置潜在特征向量维度d=10.
(1) PMF:由Salakhutdinov等人[20]提出的一种基于概率的矩阵分解推荐算法, 该算法仅考虑了用户对物品的评分信息;
(2) SoReg:由Ma等人[26]提出的一种基于社会关系的推荐算法, 该算法将社会关系以社会正则化的方式约束传统矩阵分解时用户潜在特征向量的学习, 使得存在社会关系的两个用户其潜在特征向量尽可能的相似;
(3) SoRec:由Ma等人[23]提出的一种基于社会关系的推荐算法, 该算法通过同时分解评分矩阵和用户的社会关系矩阵并且以共享用户潜在特征矩阵的方式, 学习出用户和物品的潜在特征矩阵;
(4) SociaMF:由Jamali等人[27]提出的一种将社交网络中的信任传播结构与PMF相结合的推荐算法, 该算法有效地考虑了直接和间接信任的用户对目标用户评分的影响;
(5) TrustMF:由Yang等人[24]提出的一种基于信任关系的推荐算法, 该算法合理地反映了信任用户之间的相互关系对于推荐过程中评分预测的影响;
(6) SVD++:由Koren等人[22]提出的一种同时考虑用户偏置、物品偏置以及用户隐式反馈信息的推荐算法, 该算法是矩阵分解中推荐精度较高的算法, 并且是当年Netflix大赛获奖者所使用的关键算法.
3.4 实验结果与分析实验1: 不同特征向量维度下的实验结果对比.
根据文献[27], 我们将训练集中评分数量少于5个的用户所构成的集合称为冷启动用户集.实验1比较了各种推荐算法在全体用户集和冷启动用户集上不同特征向量维度下的结果, 文中分别设定潜在特征向量的维度为d=5, 10.表 4给出了各推荐算法在全体用户集上MAE和RMSE的比较结果, 表 5给出了各推荐算法在冷启动用户集上MAE和RMSE的比较结果.从两个表中的实验结果可看出,
(1) 在全体用户集上, SVD++与PMF相比, 其推荐精度有了较大的提升, 这说明用户的偏置因素、物品的偏置因素以及用户的隐式反馈信息可提高算法的评分预测精度;
(2) 在全体用户集和冷启动用户集上, SoReg, SoRec, SocialMF, TrustMF与PMF相比, 其推荐精度均有了较大的提高.这说明用户的社会关系有助于提高传统矩阵分解模型的预测精度, 并有助于缓解用户的冷启动问题;
(3) 在冷启动用户集上, CRMF相比于6种对比算法其推荐精度有明显的的提升.这是因为当用户为冷启动时, 其社会关系的数量往往也较少, 此时仅依赖社会关系对推荐算法精度的提升是有限的; 但当目标物品为非冷启动时, 考虑物品之间的关联关系可提升推荐算法的评分预测精度.
实验2: 不同评分数量下的实验结果对比.
为了对比不同评分数量下各算法的效果, 本文依据训练集中用户的评分数量将用户划分为[0:10], [11:30], [31:50], [51:100], 100以上这5组, 图 2显示了4个数据集中每组用户所占的比例, 从图中可看出:4个数据集中, 评分数量少于10个的用户占大部分.依据用户的评分数量对训练集中的用户进行划分之后, 使用训练集学习相应的推荐算法, 然后在5组用户上分别计算RMSE, 结果如图 3所示.从4个数据集的实验结果可看出,
(1) 在数据极度稀疏时(评分数量小于10), CRMF算法明显优于其他推荐算法.这因为评分数据稀疏时, 用户的社会关系往往也比较稀疏, 同时考虑物品的关联关系可提高算法的推荐精度;
(2) 随着用户评分数量的增加, CRMF及对比算法所得出的RMSE值并没有持续变小.这因为用户的评分数量较少时, 数据比较稀疏使得模型不易学习到用户的潜在特征向量.用户的评分数据过多, 用户的兴趣会发散, 这造成无法准确学习到表示用户喜好的潜在特征向量.但CRMF仍优于其他对比算法, 这因为基于联合正则化的矩阵分解模型考虑了自适应正则化, 它能够根据用户评分的数量对正则化程度进行自适应地调整, 因此使得CRMF算法可更加有效地学习出模型的参数.
实验3: 不同社会关系下的实验结果对比.
为了评估各算法在不同社会关系下的推荐精度, 依据训练集中用户拥有的社会关系数量将用户划分为[1:5], [6:10], [11:20], [21:40], [41:100], [101:500], 500以上这7组, 图 4显示了每组用户所占的比例, 从图中可看出, 大多数用户所拥有的社会关系数量不多于5个.依据用户所拥有的社会关系数量对训练集中的用户进行划分后, 使用训练集学习相应的算法.本实验仅对考虑社会关系的SoRec, SoReg, SocialMF, TrustMF, CRMF这5种推荐算法进行了详细对比, 结果如图 5所示.从4个数据集的实验结果可看出,
(1) 在FilmTrust数据集上, 各算法的RMSE值反而随着用户拥有社会关系数量的增加而增加.根据文献[43]可知, 该数据集将社会关系中真实的信任度转成二值数据时丢失了一些有用的信息, 同时产生了噪声数据;
(2) 在Epinions, Flixster及Ciao数据集上, 随着社会关系数量的增加, 5种推荐算法的RMSE值并没有持续变小.这因为当用户拥有的社会关系数量较少时, 仅靠评分数据不能有效地对用户建模而影响了算法的精度.当用户的社会关系数量过多被考虑时, 用户的兴趣过度依靠近邻的影响, 使得学习的用户的潜在特征向量会比较发散.因此仅当用户的社会关系达到一定数量时, 5种推荐算法才取得较优效果;
(3) 在4个数据集的每组用户上, CRMF均要优于其他推荐算法.这因为基于联合正则化的矩阵分解模型不仅考虑了社会关系与关联关系, 而且使用了自适应正则化, 使得矩阵分解模型能有效地对用户和物品进行建模.
实验4: 关联关系获取方法的对比.
本实验是为了评估不同的获取关联关系的方法对推荐算法精度的影响.我们首先根据皮尔逊相关系数计算两两物品之间的相似度; 然后, 为每个目标物品选择10个最相似的物品作为关联关系; 最后, 将得到的无向关联关系与SVD++结合, 得到改进的推荐算法, 简称SVD-IS.相应地, 基于本文构建的关联程度(公式(7))可为每个物品选择10个最相关的物品作为有向的关联关系.同样地, 我们将获取的有向关联关系与SVD++结合得到改进的推荐算法, 简称SVD-IR.SVD-IS, SVD-IR在相同超参数下的实验结果如表 6所示.从表中的实验结果可看出,
(1) 相比于表 4中的SVD++算法, 考虑了物品之间相似性关系的SVD-IS在4个数据集上, 其推荐精度有不同程度的提升.这是因为考虑物品的近邻关系, 能够更好地对物品进行建模, 这与文献[36, 37]的结论是一致的;
(2) 相比于SVD-IS, SVD-IR在4个数据集上, 其推荐精度有了较高的提升.这是因为相比于无向的相似性关系, 本文方法所获取的有向关联关系更符合现实世界中物品推荐的场景.
实验5: 自适应正则化的有效性验证.
本实验是为了评估自适应正则化对于推荐算法精度的影响.我们将用户的社会关系和物品的关联关系同时与SVD++算法结合, 可得改进的推荐算法, 简称SVD-DR.SVD-DR与CRMF算法在4个数据集上的评分预测精度见表 7.从表中的实验结果可看出:考虑了自适应正则化的推荐算法CRMF明显优于仅考虑社会关系和关联关系的推荐算法SVD-DR.这是因为考虑自适应正则化的矩阵分解模型不仅无需评分矩阵中评分的分布为均匀分布.而且对于大规模非平衡数据集更易搜索到合适的正则化超参数.
实验6: 超参数对算法的影响.
为了说明CRMF算法的超参数对推荐结果的影响, 本文以数据集Ciao为例, 详细讨论了各超参数下的实验结果.本文设定α和β的取值为0.00001, 0.0001, 0.001, 0.01, 0.1, 0.3.超参数C的取值为0, 10, 20, 50, 100, 150, 200.超参数K的取值为0, 10, 20, 30, 40, 50, 60, 70, 80, 90, 100.从图 6可看出,
(1) β控制着用户的社会关系对推荐结果的影响.图 6(a)显示了超参数β的变化对RMSE的影响, 其值从0.00001开始先下降, 到达某个阈值后上升.这说明用户的社会关系在CRMF算法中所占的比重直接影响推荐结果的好坏;
(2) α控制着物品之间的关联关系在推荐过程所占的比重.图 6(b)显示了超参数α的变化对RMSE值的影响, 其值从0.00001开始先下降, 到达某个阈值后上升.这表明物品之间的关联关系在CRMF算法中所占的比重直接影响推荐结果的好坏.在数据集Ciao上, 由α=β=0.01算法取得较高精度, 说明物品之间的关联关系在用户决策时也是必不可少的;
(3) ρ=0表示物品之间的关联程度等于关联规则中的置信度.从图 6(c)可看出:随着ρ值的增加, 算法的推荐精度先增加后降低.这说明物品之间关联程程度的获取, 仅当综合考虑支持度与置信度时才使得算法精度较高;
(4) σ表示物品拥有的关联关系数量.从图 6(d)可看出:当σ=0时, 表示CRMF算法不考虑物品之间的关联关系; 随着σ值的增加, 算法的精度有所提高, 这说明本文获取物品之间关联关系的方法的有效性; 在σ=40以后, 算法的精度开始下降, 这主要是因为σ值过大会导致对目标物品引入一些关联程度较低的关联关系.
4 结论本文首先给出一种度量物品之间关联程度的方法, 通过该方法可获取物品之间的有向关联关系; 然后将其以关联正则化的方式与自适应正则化相结合, 融入基于社会正则化的矩阵分解模型中, 提出了基于联合正则化的矩阵分解模型, 并证明了联合正则化是一种加权的原子范数.由于物品之间关联关系的获取无需物品的标签、属性等额外信息, 因此, 基于联合正则化的矩阵分解模型拥有更广泛的应用范围.在4个真实数据集上的实验表明:与主流的推荐算法相比, 本文算法不仅可缓解用户的冷启动问题, 而且能够更有效地预测不同类型用户的实际评分.
在未来的研究中, 我们将把重点放在解决物品冷启动相关的问题上.这种情况下, 如何将情境信息(时间、地理等)和物品的视觉特征融入到本文的推荐模型中, 来更好地预测目标用户对特定物品的喜好, 这也是我们下一步要改进的方向.
[1] |
Lü LY, Medo M, Yeung CH, Zhang YC, Zhang ZK, Zhou T. Recommender systems. Physics Reports, 2012, 519(1): 1–49.
[doi:10.1016/j.physrep.2012.02.006] |
[2] |
Bobadilla J, Ortega F, Hernando A, Gutiérrez A. Recommender systems survey. Knowledge-Based Systems, 2013, 46(1): 109–132.
http://dl.acm.org/citation.cfm?id=2483573 |
[3] |
Wu L, Liu Q, Chen E, Yuan NJ, Guo GM, Xie X. Relevance meets coverage: A unified framework to generate diversified recommendations. ACM Trans. on Intelligent Systems and Technology (TIST), 2016, 7(3): 39.http://dl.acm.org/citation.cfm?id=2700496 |
[4] |
Liu Q, Chen E, Xiong H, Ding CH, Chen J. Enhancing collaborative filtering by user interest expansion via personalized ranking. IEEE Trans. on Systems, Man, and Cybernetics, Part B (Cybernetics), 2012, 42(1): 218-233. |
[5] |
Liu JG, Zhou T, Wang BH. Research progress of personalized recommendation system. Progress in Natural Science, 2009, 19(1): 1–15(in Chinese with English abstract).
http://d.old.wanfangdata.com.cn/Periodical/zrkxjz200901001 |
[6] |
Adomavicius G, Tuzhilin A. Toward the next generation of recommender systems: A survey of the state-of-the-art and possible extensions. IEEE Trans. on Knowledge and Data Engineering, 2005, 17(16): 734-749.http://dl.acm.org/citation.cfm?id=1070611.1070751 |
[7] |
Sarwar B, Karypis G, Konstan J, Riedl J. Item-Based collaborative filtering recommendation algorithms. In: Proc. of the 10th Conf. on World Wide Web. ACM Press, 2001. 285-295.http://dl.acm.org/citation.cfm?id=372071 |
[8] |
Liu Q, Chen E, Xiong H, Ge Y, Li ZM, Wu X. A cocktail approach for travel package recommendation. IEEE Trans. on Knowledge and Data Engineering, 2014, 26(2): 278-293.http://ieeexplore.ieee.org/document/6365185/ |
[9] |
Chiang KY, Hsieh CJ, Dhillon IS. Matrix completion with noisy side information. In: Proc. of the 28th Conf. on Neural Information Processing Systems. Curran Associates Press, 2015. 3447-3455.http://papers.nips.cc/paper/5940-matrix-completion-with-noisy-side-information |
[10] |
Rao N, Yu HF, Ravikumar P, Dhillon IS. Collaborative filtering with graph information: Consistency and scalable methods. In: Proc. of the 28th Conf. on Neural Information Processing Systems. Curran Associates Press, 2015. 2107-2115.http://www.zentralblatt-math.org/ioport/en/?q=an%3A10675445 |
[11] |
Li DS, Chen C, Lv Q, Yan JC, Shang L, Chu SM. Low-Rank matrix approximation with stability. In: Proc. of the 33rd Int'l Conf. on Machine Learning. ACM Press, 2016.http://dl.acm.org/citation.cfm?id=3045390.3045423 |
[12] |
Wang YX, Xu H. Stability of matrix factorization for collaborative filtering. In: Proc. of the 29th Int'l Conf. on Machine Learning. ACM Press, 2012. 417-424.http://cn.arxiv.org/abs/1206.4640 |
[13] |
Bhaskar SA. Probabilistic low-rank matrix completion from quantized measurements. Journal of Machine Learning Research, 2016, 17(60): 1–34.
http://dl.acm.org/citation.cfm?id=2946705 |
[14] |
Koren Y, Bell R, Volinsky C. Matrix factorization techniques for recommender systems. IEEE Computer, 2009, 42(8): 30–37.
[doi:10.1109/MC.2009.263] |
[15] |
Koren Y. Collaborative filtering with temporal dynamics. In: Proc. of the 9th Int'l ACM SIGKDD Conf. on Knowledge Discovery and Data Mining. ACM Press, 2009. 89-97.http://portal.acm.org/citation.cfm?id=1557072 |
[16] |
Hu Y, Koren Y, Volinsky C. Collaborative filtering for implicit feedback datasets. In: Proc. of the 8th IEEE Int'l Conf. on Data Mining. IEEE, 2008. 263-272.http://doi.ieeecomputersociety.org/10.1109/ICDM.2008.22 |
[17] |
Srebro N, Rennie JDM, Jaakkola T. Maximum margin matrix factorization. In: Proc. of the 17th Int'l Conf. on Neural Information Processing Systems. Curran Associates Press, 2004. 1329-1336. |
[18] |
Lawrence ND, Urtasun R. Non-Linear matrix factorization with Gaussian processes. In: Proc. of the 26th Int'l Conf. on Machine Learning. ACM Press, 2009. 601-608.http://dl.acm.org/citation.cfm?id=1553452 |
[19] |
Liu XY, Aggarwal C, Li YF, Kong XG, Sun XY, Sathe S. Kernelized matrix factorization for collaborative filtering. In: Proc. of the SIAM Int'l Conf. on Data Mining. SIAM/Omnipress, 2016. 399-416.http://epubs.siam.org/doi/abs/10.1137/1.9781611974348.43 |
[20] |
Salakhutdinov R, Mnih A. Probabilistic matrix factorization. In: Proc. of the 21st Conf. on Neural Information Processing Systems. Curran Associates Press, 2008. 1257-1264.http://dl.acm.org/citation.cfm?id=2981720 |
[21] |
Salakhutdinov R, Mnih A. Bayesian probabilistic matrix factorization using Markov chain Monte Carlo. In: Proc. of the 25th Int'l Conf. on Machine Learning. ACM Press, 2008. 880-887.http://www.mendeley.com/catalog/bayesian-probabilistic-matrix-factorization-using-markov-chain-monte-carlo/ |
[22] |
Koren Y. Factorization meets the neighborhood: A multifaceted collaborative filtering model. In: Proc. of the 8th Int'l ACM SIGKDD Conf. on Knowledge Discovery and Data Mining. ACM Press, 2008. 426-434.http://www.mendeley.com/catalog/factorization-meets-neighborhood/ |
[23] |
Ma H, Yang HX, Lyu MR, King I. SoRec: Social recommendation using probabilistic matrix factorization. In: Proc. of the 17th Int'l Conf. on Information and Knowledge Management. ACM Press, 2008. 978-991.http://www.mendeley.com/catalog/sorec-social-recommendation-using-probabilistic-matrix-factorization/ |
[24] |
Yang B, Lei Y, Liu DY, Liu JM. Social collaborative filtering by trust. In: Proc. of the 23rd Int'l Joint Conf. on Artificial Intelligence. IJCAI/AAAI Press, 2013. 2747-2753.http://europepmc.org/abstract/MED/27608451 |
[25] |
Guo L, Ma J, Chen ZM. Trust strength aware social recommendation method. Journal of Computer Research and Development, 2015, 50(9): 1805–1813(in Chinese with English abstract).
http://d.old.wanfangdata.com.cn/Periodical/jsjyjyfz201309003 |
[26] |
Ma H, Zhou D, Liu C, Lyu MR, King I. Recommender systems with social regularization. In: Proc. of the 25th Int'l Conf. on Web Search and Data Mining. ACM Press, 2011. 287-296.http://www.mendeley.com/catalog/recommender-systems-social-regularization-3/ |
[27] |
Jamali M, Ester M. A matrix factorization technique with trust propagation for recommendation in social networks. In: Proc. of the 4th Int'l Conf. on Recommender Systems. ACM Press, 2010. 135-142.http://www.mendeley.com/catalog/matrix-factorization-technique-trust-propagation-recommendation-social-networks/ |
[28] |
Ma H, Lyu MR, King I. Learning to recommend with trust and distrust relationships. In: Proc. of the 3rd Int'l Conf. on Recommender Systems. ACM Press, 2009. 189-196.http://dl.acm.org/citation.cfm?id=1639746 |
[29] |
Meng XW, Liu SD, Zhang YJ, Hu X. Research on social recommender systems. Ruan Jian Xue Bao/Journal of Software, 2015, 26(6): 1356–1372(in Chinese with English abstract).
http://www.jos.org.cn/jos/ch/reader/view_abstract.aspx?flag=1&file_no=4831&journal_id=jos [doi:10.13328/j.cnki.jos.004831] |
[30] |
Sun GF, Wu L, Liu Q, Zhu C, Chen EH. Recommendations based on collaborative filtering by exploiting sequential behaviors. Ruan Jian Xue Bao/Journal of Software, 2013, 24(11): 2721–2733(in Chinese with English abstract).
http://www.jos.org.cn/jos/ch/reader/view_abstract.aspx?flag=1&file_no=4478&journal_id=jos [doi:10.3724/SP.J.1001.2013.04478] |
[31] |
Wu L, Chen E, Liu Q, Xu LL, Bao TF, Zhang L. Leveraging tagging for neighborhood-aware probabilistic matrix factorization. In: Proc. of the 21st ACM Int'l Conf. on Information and Knowledge Management. ACM Press, 2012. 1854-1858.http://dl.acm.org/citation.cfm?id=2398531 |
[32] |
Gu QQ, Zhou J, Ding C. Collaborative filtering: Weighted nonnegative matrix factorization incorporating user and item graphs. In: Proc. of the SIAM Int'l Conf. on Data Mining. SIAM/Omnipress, 2010. 199-210.http://www.mendeley.com/catalog/collaborative-filtering-weighted-nonnegative-matrix-factorization-incorporating-user-item-graphs/ |
[33] |
Yu X, Ren X, Gu Q, Sun YZ, Han JW. Collaborative filtering with entity similarity regularization in heterogeneous information networks. In: Proc. of the 2nd IJCAI Workshop on Heterogeneous Information Network Analysis. 2013.http://www.mendeley.com/research/collaborative-filtering-entity-similarity-regularization-heterogeneous-information-networks/ |
[34] |
Luo C, Pang W, Wang Z. Hete-CF: Social-Based collaborative filtering recommendation using heterogeneous relations. In: Proc. of the 2014 IEEE Int'l Conf. on Data Mining. IEEE, 2014. 917-922.http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=7023423 |
[35] |
Liang D, Altosaar J, Charlin L, Blei DM. Factorization meets the item embedding: Regularizing matrix factorization with item cooccurrence. In: Proc. of the 10th Int'l Conf. on Recommender Systems. ACM Press, 2016. 59-66.http://dl.acm.org/citation.cfm?id=2959182 |
[36] |
Ma H. An experimental study on implicit social recommendation. In: Proc. of the 36th Int'l ACM SIGIR Conf. on Research and Development in Information Retrieval. ACM Press, 2013. 73-82.http://dl.acm.org/citation.cfm?id=2484028.2484059 |
[37] |
Zheng J, Liu J, Shi C, Zhuang FZ, Li JZ, Wu B. Dual similarity regularization for recommendation. In: Proc. of the 20th PacificAsia Conf. on Knowledge Discovery and Data Mining. Springer Int'l Publishing, 2016. 542-554.https://link.springer.com/chapter/10.1007%2F978-3-319-31750-2_43 |
[38] |
Charu C. Recommender Systems:The Textbook. New York: Springer-Verlag, 2016: 77-81.
|
[39] |
Srebro N, Salakhutdinov R. Collaborative filtering in a non-uniform world: Learning with the weighted trace norm. In: Proc. of the 23rd Conf. on Neural Information Processing Systems. Curran Associates Press, 2010. 2056-2064. |
[40] |
Chandrasekaran V, Recht B, Parrilo PA, Willsky AS. The convex geometry of linear inverse problems. Foundations of Computational Mathematics, 2012, 12(6): 805–849.
[doi:10.1007/s10208-012-9135-7] |
[41] |
Chen YD, Bhojanapalli S, Sanghavi S, Ward R. Coherent matrix completion. Journal of Machine Learning Research, 2014, 32: 674–682.
http://d.old.wanfangdata.com.cn/NSTLQK/NSTL_QKJJ0227551305/ |
[42] |
Bouchard G, Guo SB, Yin DW. Convex collective matrix factorization. Journal of Machine Learning Research, 2013, 31: 144–152.
http://d.old.wanfangdata.com.cn/NSTLHY/NSTL_HYCC0214642372/ |
[43] |
Fang H, Bao Y, Zhang J. Leveraging decomposed trust in probabilistic matrix factorization for effective recommendation. In: Proc. of the 28th AAAI Conf. on Artificial Intelligence. AAAI Press, 2014. 30-36.http://dl.acm.org/citation.cfm?id=2893879 |
[5] |
刘建国, 周涛, 汪秉宏. 个性化推荐系统的研究进展. 自然科学研究进展, 2009, 19(1): 1–15.
http://d.old.wanfangdata.com.cn/Periodical/zrkxjz200901001
|
[25] |
郭磊, 马军, 陈竹敏. 一种信任关系强度敏感的社会化推荐算法. 计算机研究与发展, 2015, 50(9): 1805–1813.
http://d.old.wanfangdata.com.cn/Periodical/jsjyjyfz201309003
|
[29] |
孟祥武, 刘树栋, 张玉洁, 胡勋. 社会化推荐系统研究. 软件学报, 2015, 26(6): 1356–1372.
http://www.jos.org.cn/jos/ch/reader/view_abstract.aspx?flag=1&file_no=4831&journal_id=jos [doi:10.13328/j.cnki.jos.004831]
|
[30] |
孙光福, 吴乐, 刘淇, 朱琛, 陈恩红. 基于时序行为的协同过滤推荐算法. 软件学报, 2013, 24(11): 2721–2733.
http://www.jos.org.cn/jos/ch/reader/view_abstract.aspx?flag=1&file_no=4478&journal_id=jos [doi:10.3724/SP.J.1001.2013.04478]
|