“我们正在离开信息时代，进入推荐时代。”

## 2.1以项目为中心的贝叶斯分类器

p i t e m ( l i k e ∣ u s e r f e a t u r e s ) p i t e m ( d i s l i k e ∣ u s e r f e a t u r e s ) \frac{p_{item}(like|user_{features})}{p_{item}(dislike|user_{features})} p i t e m ​ ( d i s l ik e ∣ u se r f e a t u res ​ ) p i t e m ​ ( l ik e ∣ u se r f e a t u res ​ ) ​

p i t e m ( l i k e ∣ u s e r f e a t u r e s ) p i t e m ( d i s l i k e ∣ u s e r f e a t u r e s ) = p i t e m ( u s e r f e a t u r e s ∣ l i k e ) × p i t e m ( l i k e ) p i t e m ( u s e r f e a t u r e s ∣ d i s l i k e ) × p i t e m ( d i s l i k e ) \frac{p_{item}(like|user_{features})}{p_{item}(dislike|user_{features})}= \frac{p_{item}(user_{features}|like)\times p_{item}(like)}{p_{item}(user_{features}|dislike)\times p_{item}(dislike)} p i t e m ​ ( d i s l ik e ∣ u se r f e a t u res ​ ) p i t e m ​ ( l ik e ∣ u se r f e a t u res ​ ) ​ = p i t e m ​ ( u se r f e a t u res ​ ∣ d i s l ik e ) × p i t e m ​ ( d i s l ik e ) p i t e m ​ ( u se r f e a t u res ​ ∣ l ik e ) × p i t e m ​ ( l ik e ) ​

p i t e m ( ⋅ ∣ l i k e ) p_{item}(·|like) p i t e m ​ ( ⋅ ∣ l ik e ) 是条件概率，这是贝叶斯模型中最重要的一部分，首先朴素贝叶斯假设各特征之间是 条件独立 的。这样我们就可以将条件概率进行拆解。

## 2.1以用户为中心的线性回归

X i = m i n 1 2 ∑ ( i , j ) [ ( X i ) ( Y j ) T − M i j ] 2 + λ 2 ∑ k ( X i k ) 2 X_i = min\frac{1}{2}\sum_{(i,j)}[(X_i)(Y_j)^T-M_{ij}]^2+\frac{\lambda}{2}\sum_{k}(X_{ik})^2 min ( i , j ) ∑ ​ [( X i ​ ) ( Y j ​ ) T − M ij ​ ] 2 + k ∑ ​ ( X ik ​ ) 2

## 3.2基于模型的协同过滤方法

#### 矩阵分解的数学解释

M = X Y T M=XY^T X Y T

( X , Y ) = m i n ∑ M i j ≠ 0 [ M i j − ( X i ) ( Y j ) T ] 2 (X,Y) = min \sum_{M_{ij}
eq0}[M_{ij}-(X_i)(Y_j)^T]^2 ( X , Y ) = min M ij ​ = 0 ∑ ​ [ M ij ​ − ( X i ​ ) ( Y j ​ ) T ] 2

( X , Y ) = m i n 1 2 ∑ M i j ≠ 0 [ M i j − ( X i ) ( Y j ) T ] 2 + λ 2 ( ∑ i , k ( X i k ) 2 + ∑ j , k ( Y j k ) 2 ) (X,Y) = min\frac{1}{2}\sum_{M_{ij}
eq0}[M_{ij}-(X_i)(Y_j)^T]^2+\frac{\lambda}{2}(\sum_{i,k}(X_{ik})^2+\sum_{j,k}(Y_{jk})^2) ( X , Y ) = min M ij ​ = 0 ∑ ​ [ M ij ​ − ( X i ​ ) ( Y j ​ ) T ] 2 + ( i , k ∑ ​ ( X ik ​ ) 2 + j , k ∑ ​ ( Y jk ​ ) 2 )

m i n 1 2 ∑ M i j ≠ 0 [ f ( X i , Y j T ) − M i j ] 2 + λ 2 ( ∑ i , k ( X i k 2 ) + ∑ j , k ( Y i k ) 2 ) min\frac{1}{2}\sum_{M_{ij}
eq0}[f(X_i,Y_j^T)-M_{ij}]^2+\frac{\lambda}{2}(\sum_{i,k}(X_{ik}^2)+\sum_{j,k}(Y_{ik})^2) min M ij ​ = 0 ∑ ​ [ f ( X i ​ , Y j T ​ ) − M ij ​ ] 2 + ( i , k ∑ ​ ( X ik 2 ​ ) + j , k ∑ ​ ( Y ik ​ ) 2 )