Press "Enter" to skip to content

协同过滤与奇异值分解

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

1.背景

 

推荐系统能够预测用户未来的兴趣偏好,并向用户推荐排序最靠前的item。在现代社会中,推荐系统之所以被人们需要,关键是由于互联网的普及,人们面临着太多的选择。过去,人们习惯在实体店购物,实体店的商品有限,人们的选择也有限。相比之下,如今互联网允许人们在线访问任何资源。尽管可用信息量增加,但人们很难选出他们真正想要的东西,问题来了——这就是推荐系统的用武之地。

 

本文将简要介绍构建推荐系统的两种典型方法,即协同过滤和奇异值分解。

 

2.传统方法

 

传统上,构建推荐系统有两种方法:

基于内容的推荐
协同过滤

第一种方法需要分析每一项的属性。例如,对每位诗人的诗歌作品进行自然语言处理,然后向用户推荐诗人。但是,协同过滤却不需要有关项或用户本身的任何信息,而是根据用户的过去行为进行推荐。以下我们将重点讲解协同过滤。

 

3.协同过滤

 

如上所述,协同过滤(CF)是基于用户过去行为的推荐平均值。协同过滤可分两类:

基于用户:测量目标用户与其他用户之间的相似性
基于项目:测量目标用户评价/交互过的项目与其他项目之间的相似性

同过滤背后的关键思想是相似的用户共享相同的兴趣,并且喜欢相似的项目。

 

假设现有m个用户和n个项目,我们用m * n的矩阵来表示用户过去的行为。矩阵中的每个单元格表示用户持有的相关反馈,例如,M {i,j}表示用户i对项目 j的喜欢程度,这种矩阵称为效用矩阵(utility matrix ) 。

 

基于用户的协同过滤

 

基于用户的协同过滤首先需要计算用户之间的相似性。计算相似性有两种办法,皮尔逊相关系数或余弦相似度。设u {i,k}表示用户i和用户k之间的相似度,v {i,j}表示用户i对项目j的评级,如果用户没有评定该项目,则v_ {i,j} =?。

 

这两种方法可以表示如下:

 

1. 皮尔逊相关系数 (Pearson Correlation)

 

 

2. 余弦相似度(Cosine Similarity)

 

 

这两种方法很常用,但区别在于用皮尔逊相关系数计算的话,向所有元素添加常量不变。

 

现在,我们可以使用以下等式预测用户对未评级项目的反馈意见:

未评级项目预测

 

在以下矩阵中,每行代表一个用户,而列对应于不同的电影,每个单元格代表用户为该电影提供的评级,最后一列为该用户和目标用户之间的相似性。假设用户E是目标用户。

 

 

由于用户A和F不共享与用户E共同的任何电影评级,因此他们与用户E的相似性未在中皮尔逊相关系数中定义。因此只需要考虑用户B、C和D。基于皮尔逊相关系数,计算如下:

 

 

从上表可以看出,用户D与用户E差异很大,二者之间的皮尔逊相关性为负。用户D对电影 Me Before You 的评价高于他的评分平均值,而用户E的表现则相反。

 

 

基于用户的协同过滤虽然很简单,但它存在几个问题。一个主要问题是用户的偏好会随着时间的推移而改变,这意味着基于其相邻用户预先计算矩阵这种方法可能导致推荐效果不准确。为了解决这个问题,我们可以采用基于项目的协同过滤。

 

基于项目的协同过滤

 

基于项目的协同过滤并不计算用户之间的相似性,而是基于用户与目标用户评定的项目之间的相似性来推荐项目。同样,可以使用皮尔逊相关系数或余弦相似度计算相似度。主要区别在于,使用基于项目的协同过滤,我们垂直填补空白,与基于用户的协同过滤的水平方式相反。下表展示了如何为电影 Me Before You 执行此操作。

 

 

这种方法成功地避免了动态的用户偏好带来的问题,因为基于项目的CF更加静态。但是,这种方法仍然存在一些问题。第一个问题是可扩展性。数据计算量随用户和项目的增长而增长。最坏的情况复杂度是O(mn),即m个用户和n个项目。稀疏性是另一个问题。在上表中,虽然只有一个用户对 Matrix 和 Titanic 都进行了评级,但它们之间的相似性为1。在极端情况下,我们可能拥有数百万用户,两部截然不同的电影之间的相似性也可能非常高,因为唯一一个对这两部电影评分的用户给了它们相似的评分。

 

4. 奇异值分解(Singular Value Decomposition)

 

处理CF中可扩展性和稀疏性问题的方法之一是利用潜在因子模型来捕获用户和项之间的相似性。从本质上讲,我们希望将推荐问题转化为优化问题,把它看做系统预测用户给定项目的评级的性能。

 

一个常见的指标是均方根误差(RMSE,Root Mean Square Error)。 RMSE越低,性能越好。由于我们不知道不可见项目的评级,因此会暂时忽略它们。也就是说,我们只在效用矩阵中的已知条目上最小化RMSE。为了实现最小RMSE,采用奇异值分解(SVD)如下面的公式所示。

奇异矩阵分解

 

X表示效用矩阵,U是左奇异矩阵,表示用户和潜在因子之间的关系。 S是描述每个潜在因子强度的对角矩阵,而V转置是右奇异矩阵,表示项和潜在因子之间的相似性。什幺是潜在因子呢?这是一个广义的概念,用来描述用户或项目具有的属性。以音乐为例,潜在因子可以指音乐所属的类型。 SVD通过提取其潜在因子来减小效用矩阵的维数。基本上,我们将每个用户和每个项目映射到维度为r的潜在空间。潜在空间有助于我们更好地理解用户和项目之间的关系,如下所示:

SVD将用户和项目映射到潜在空间

 

SVD具有最小的重建平方误差和(SSE,Sum of Square Error);因此,它也常用于降维。在下面的公式中,用A代替X,用Σ代替S。

平方误差总和

 

这与开头提到的RMSE有什幺关系呢?事实证明,RMSE和SSE呈单调相关。这意味着SSE越低,RMSE越低。既然SVD可以最大限度地降低SSE,那幺就可以最小化RMSE。

 

因此,SVD是解决此优化问题的绝佳工具。为了预测用户不可见的项目,我们简单地将U、Σ和T相乘。

 

Python Scipy为稀疏矩阵提供了很好的SVD实现。

 

 

SVD成功解决了CF带来的可扩展性和稀疏性问题,然而SVD并非没有缺陷。 SVD的主要缺点是向用户推荐项目的原因几乎没有解释。如果用户想知道为什幺要向他们推荐特定项目,这可能是一个很大的问题。这个问题将会在下一篇文章中提到。

 

5.结论

 

本文讨论了构建推荐系统的两种典型方法,协同过滤和奇异值分解。

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注