Press "Enter" to skip to content

TensorFlow 工程实战(三):结合知识图谱实现电影推荐系统

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

本文借助多任务学习端到端框架 MKR,从知识图谱中找出电影间的潜在特征,并借助该特征及电影评分数据集,实现基于电影的推荐系统。

 

本文摘选自电子工业出版社出版、李金洪编着的 《深度学习之 TensorFlow 工程化项目实战》 一书的实例 38: 结合知识图谱实现基于电影的推荐系统。

 

知识图谱(Knowledge Graph,KG)可以理解成一个知识库,用来存储实体与实体之间的关系。知识图谱可以为机器学习算法提供更多的信息,帮助模型更好地完成任务。

 

在推荐算法中融入电影的知识图谱,能够将没有任何历史数据的新电影精准地推荐给目标用户。

 

实例描述

 

现有一个电影评分数据集和一个电影相关的知识图谱。电影评分数据集里包含用户、电影及评分;电影相关的知识图谱中包含电影的类型、导演等属性。

 

要求:从知识图谱中找出电影间的潜在特征,并借助该特征及电影评分数据集,实现基于电影的推荐系统。

 

本实例使用了一个多任务学习的端到端框架 MKR。该框架能够将两个不同任务的低层特征抽取出来,并融合在一起实现联合训练,从而达到最优的结果。有关 MKR 的更多介绍可以参考以下链接:

 

https://arxiv.org/pdf/1901.08907.pdf

 

一、准备数据集

 

在上述 论文 的相关代码链接中有 3 个数据集:图书数据集、电影数据集和音乐数据集。本例使用电影数据集,具体链接如下:

 

https://github.com/hwwang55/MKR/tree/master/data/movie

 

该数据集中一共有 3 个文件。

item_index2entity_id.txt:电影的 ID 与序号。具体内容如图 1 所示,第 1 列是电影 ID,第 2 列是序号。
kg.txt:电影的知识图谱。图 2 中显示了知识图谱的 SPO 三元组(Subject-Predicate-Object),第 1 列是电影 ID,第 2 列是关系,第 3 列是目标实体。
ratings.dat:用户的评分数据集。具体内容如图 3 所示,列与列之间用“::”符号进行分割,第 1 列是用户 ID,第 2 列是电影 ID,第 3 列是电影评分,第 4 列是评分时间(可以忽略)。

 

二、预处理数据

 

数据预处理主要是对原始数据集中的有用数据进行提取、。该过程会生成两个文件。

kg_final.txt:转化后的知识图谱文件。将文件 kg.txt 中的字符串类型数据转成序列索引类型数据,如图 4 所示。
ratings_final.txt:转化后的用户评分数据集。第 1 列将 ratings.dat 中的用户 ID 变成序列索引。第 2 列没有变化。第 3 列将 ratings.dat 中的评分按照阈值 5 进行转化,如果评分大于等于 5,则标注为 1,表明用户对该电影感兴趣。否则标注为 0,表明用户对该电影不感兴趣。具体内容如图 5 所示。

 

三、搭建 MKR 模型

 

MKR 模型由 3 个子模型组成,完整结构如图 6 所示。具体描述如下。

推荐算法模型:如图 6 的左侧部分所示,将用户和电影作为输入,模型的预测结果为用户对该电影的喜好分数,数值为 0~1。
交叉压缩单元模型:如图 6 的中间部分,在低层将左右两个模型桥接起来。将电影评分数据集中的电影向量与知识图谱中的电影向量特征融合起来,再分别放回各自的模型中,进行监督训练。
知识图谱词嵌入(Knowledge Graph Embedding,KGE)模型:如图 6 的右侧部分,将知识图谱三元组中的前 2 个(电影 ID 和关系实体)作为输入,预测出第 3 个(目标实体)。

图 6 MKR 框架

 

在 3 个子模型中,最关键的是交叉压缩单元模型。下面就先从该模型开始一步一步地实现 MKR 框架。

 

1. 交叉压缩单元模型

 

交叉压缩单元模型可以被当作一个网络层叠加使用。如图 7 所示的是交叉压缩单元在第 l 层到第 l+1 层的结构。图 7 中,最下面一行为该单元的输入,左侧的 v_l 是用户评论电影数据集中的电影向量,右侧的 e_l 是知识图谱中的电影向量。

 

图 7 交叉压缩单元模型的结构

 

交叉压缩单元模型的具体处理过程如下:

 

(1)将 v_l 与 e_l 进行矩阵相乘得到 c_l。

 

(2)将 c_l 复制一份,并进行转置得到 c_l^T。实现特征交叉融合。

 

(3)将 c_l 经过权重矩阵 w_l^vv 进行线性变化(c_l 与 w_l^vv 矩阵相乘)。

 

(4)将 c_l^T 经过权重矩阵 w_l^ev 进行线性变化。

 

(5)将(3)与(4)的结果相加,再与偏置参数 b_l^v 相加,得到 v_(l+1)。v_(l+1) 将用于推荐算法模型的后续计算。

 

(6)按照第(3)、(4)、(5)步的做法,同理可以得到 e_(l+1)。e_(l+1) 将用于知识图谱词嵌入模型的后续计算。

 

用 tf.layer 接口实现交叉压缩单元模型,具体代码如下。

 

代码 7-14 MKR

 

 

01import numpy as np
02import tensorflow as tf
03from sklearn.metrics import roc_auc_score
04from tensorflow.python.layers import base
05
06classCrossCompressUnit(base.Layer):#定义交叉压缩单元模型类
07def__init__(self, dim, name=None):
08super(CrossCompressUnit,self).__init__(name)
09self.dim = dim
10self.f_vv = tf.layers.Dense(1, use_bias = False)#构建权重矩阵
11self.f_ev = tf.layers.Dense(1, use_bias = False)
12self.f_ve = tf.layers.Dense(1, use_bias = False)
13self.f_ee = tf.layers.Dense(1, use_bias = False)
14self.bias_v =self.add_weight(name='bias_v',#构建偏置权重
15shape=dim,
16initializer=tf.zeros_initializer())self.bias_e =self.add_weight(name='bias_e',
17shape=dim,
18initializer=tf.zeros_initializer())
19
20def_call(self, inputs):
21v, e = inputs#v 和 e 的形状为 [batch_size, dim]
22v = tf.expand_dims(v, dim=2)#v 的形状为 [batch_size, dim, 1]
23e = tf.expand_dims(e, dim=1)#e 的形状为 [batch_size, 1, dim]
24
25c_matrix = tf.matmul(v, e)#c_matrix 的形状为 [batch_size, dim, dim]
26c_matrix_transpose = tf.transpose(c_matrix, perm=[0,2,1])
27#c_matrix 的形状为 [batch_size * dim, dim]
28c_matrix = tf.reshape(c_matrix, [-1,self.dim])
29c_matrix_transpose = tf.reshape(c_matrix_transpose, [-1,self.dim])
30
31#v_output 的形状为 [batch_size, dim]
32v_output = tf.reshape(
33self.f_vv(c_matrix) +self.f_ev(c_matrix_transpose),
34[-1,self.dim]
35) +self.bias_v
36
37e_output = tf.reshape(
38self.f_ve(c_matrix) +self.f_ee(c_matrix_transpose),
39[-1,self.dim]
40) +self.bias_e
41#返回结果
42returnv_output, e_output

 

代码第 10 行,用 tf.layers.Dense 方法定义了不带偏置的全连接层,并在代码第 34 行,将该全连接层作用于交叉后的特征向量,实现压缩的过程。

 

2. 将交叉压缩单元模型集成到 MKR 框架中

 

在 MKR 框架中,推荐算法模型和知识图谱词嵌入模型的处理流程几乎一样。可以进行同步处理。在实现时,将整个处理过程横向拆开,分为低层和高层两部分。

低层:将所有的输入映射成词嵌入向量,将需要融合的向量(图 6 中的 v 和 h)输入交叉压缩单元,不需要融合的向量(图 6 中的 u 和 r)进行同步的全连接层处理。
高层:推荐算法模型和知识图谱词嵌入模型分别将低层的传上来的特征连接在一起,通过全连接层回归到各自的目标结果。

具体实现的代码如下。

 

代码 7-14 MKR(续)

 

 

43classMKR(object):
44def__init__(self, args, n_users, n_items, n_entities, n_relations):
45self._parse_args(n_users, n_items, n_entities, n_relations)
46self._build_inputs()
47self._build_low_layers(args)#构建低层模型
48self._build_high_layers(args)#构建高层模型
49self._build_loss(args)
50self._build_train(args)
51
52def_parse_args(self, n_users, n_items, n_entities, n_relations):
53self.n_user = n_users
54self.n_item = n_items
55self.n_entity = n_entities
56self.n_relation = n_relations
57
58#收集训练参数,用于计算 l2 损失
59self.vars_rs = []
60self.vars_kge = []
61
62def_build_inputs(self):
63self.user_indices=tf.placeholder(tf.int32, [None],'userInd')
64self.item_indices=tf.placeholder(tf.int32, [None],'itemInd')
65self.labels = tf.placeholder(tf.float32, [None],'labels')
66self.head_indices =tf.placeholder(tf.int32, [None],'headInd')
67self.tail_indices =tf.placeholder(tf.int32, [None],'tail_indices')
68self.relation_indices=tf.placeholder(tf.int32, [None],'relInd')
69def_build_model(self, args):
70self._build_low_layers(args)
71self._build_high_layers(args)
72
73def_build_low_layers(self, args):
74#生成词嵌入向量
75self.user_emb_matrix = tf.get_variable('user_emb_matrix',
76[self.n_user, args.dim])
77self.item_emb_matrix = tf.get_variable('item_emb_matrix',
78[self.n_item, args.dim])
79self.entity_emb_matrix = tf.get_variable('entity_emb_matrix',
80[self.n_entity, args.dim])
81self.relation_emb_matrix = tf.get_variable('relation_emb_matrix',
82[self.n_relation, args.dim])
83
84#获取指定输入对应的词嵌入向量,形状为 [batch_size, dim]
85self.user_embeddings = tf.nn.embedding_lookup(
86self.user_emb_matrix,self.user_indices)
87self.item_embeddings = tf.nn.embedding_lookup(
88self.item_emb_matrix,self.item_indices)
89self.head_embeddings = tf.nn.embedding_lookup(
90self.entity_emb_matrix,self.head_indices)
91self.relation_embeddings = tf.nn.embedding_lookup(
92self.relation_emb_matrix,self.relation_indices)
93self.tail_embeddings = tf.nn.embedding_lookup(
94self.entity_emb_matrix,self.tail_indices)
95
96for_inrange(args.L):#按指定参数构建多层 MKR 结构
97#定义全连接层
98user_mlp = tf.layers.Dense(args.dim, activation=tf.nn.relu)
99tail_mlp = tf.layers.Dense(args.dim, activation=tf.nn.relu)
100cc_unit = CrossCompressUnit(args.dim)#定义 CrossCompress 单元
101#实现 MKR 结构的正向处理
102self.user_embeddings = user_mlp(self.user_embeddings)
103self.tail_embeddings = tail_mlp(self.tail_embeddings)
104self.item_embeddings,self.head_embeddings = cc_unit(
105[self.item_embeddings,self.head_embeddings])
106#收集训练参数
107self.vars_rs.extend(user_mlp.variables)
108self.vars_kge.extend(tail_mlp.variables)
109self.vars_rs.extend(cc_unit.variables)
110self.vars_kge.extend(cc_unit.variables)
111
112def_build_high_layers(self, args):
113#推荐算法模型
114use_inner_product = True#指定相似度分数计算的方式
115ifuse_inner_product:#内积方式
116#self.scores 的形状为 [batch_size]
117self.scores = tf.reduce_sum(self.user_embeddings *self.item_embeddings, axis=1)
118else:
119#self.user_item_concat 的形状为 [batch_size, dim * 2]
120self.user_item_concat = tf.concat(
121[self.user_embeddings,self.item_embeddings], axis=1)
122for_inrange(args.H -1):
123rs_mlp = tf.layers.Dense(args.dim *2, activation=tf.nn.relu)
124#self.user_item_concat 的形状为 [batch_size, dim * 2]
125self.user_item_concat = rs_mlp(self.user_item_concat)
126self.vars_rs.extend(rs_mlp.variables)
127#定义全连接层
128rs_pred_mlp = tf.layers.Dense(1, activation=tf.nn.relu)
129#self.scores 的形状为 [batch_size]
130self.scores = tf.squeeze(rs_pred_mlp(self.user_item_concat))
131self.vars_rs.extend(rs_pred_mlp.variables)#收集参数
132self.scores_normalized = tf.nn.sigmoid(self.scores)
133
134#知识图谱词嵌入模型
135self.head_relation_concat = tf.concat(#形状为 [batch_size, dim * 2]
136[self.head_embeddings,self.relation_embeddings], axis=1)
137for_inrange(args.H -1):
138kge_mlp = tf.layers.Dense(args.dim *2, activation=tf.nn.relu)
139#self.head_relation_concat 的形状为 [batch_size, dim* 2]
140self.head_relation_concat = kge_mlp(self.head_relation_concat)
141self.vars_kge.extend(kge_mlp.variables)
142
143kge_pred_mlp = tf.layers.Dense(args.dim, activation=tf.nn.relu)
144#self.tail_pred 的形状为 [batch_size, args.dim]
145self.tail_pred = kge_pred_mlp(self.head_relation_concat)
146self.vars_kge.extend(kge_pred_mlp.variables)
147self.tail_pred = tf.nn.sigmoid(self.tail_pred)
148
149self.scores_kge = tf.nn.sigmoid(tf.reduce_sum(self.tail_embeddings *self.tail_pred, axis=1))
150self.rmse = tf.reduce_mean(
151tf.sqrt(tf.reduce_sum(tf.square(self.tail_embeddings -self.tail_pred), axis=1) / args.dim))

 

代码第 73~90 行(书中第 115~132 行)是推荐算法模型的高层处理部分,该部分有两种处理方式:

使用内积的方式,计算用户向量和电影向量的相似度。有关相似度的更多知识,可以参考 8.1.10 小节的注意力机制。
将用户向量和电影向量连接起来,再通过全连接层处理计算出用户对电影的喜好分值。

代码第 90 行(书中第 132 行),通过激活函数 sigmoid 对分值结果 scores 进行非线性变化,将模型的最终结果映射到标签的值域中。

 

代码第 94~110 行(书中第 136~152 行)是知识图谱词嵌入模型的高层处理部分。具体步骤如下:

 

(1)将电影向量和知识图谱中的关系向量连接起来。

 

(2)将第(1)步的结果通过全连接层处理,得到知识图谱三元组中的目标实体向量。

 

(3)将生成的目标实体向量与真实的目标实体向量矩阵相乘,得到相似度分值。

 

(4)对第(3)步的结果进行激活函数 sigmoid 计算,将值域映射到 0~1 中。

 

3. 实现 MKR 框架的反向结构

 

MKR 框架的反向结构主要是 loss 值的计算,其 loss 值一共分为 3 部分:推荐算法模型模型的 loss 值、知识图谱词嵌入模型的 loss 值和参数权重的正则项。具体实现的代码如下。

 

代码 7-14 MKR(续)

 

152 def _build_loss(self, args):

 

153 #计算推荐算法模型的 loss 值

 

154 self.base_loss_rs = tf.reduce_mean(

 

155 tf.nn.sigmoid_cross_entropy_with_logits(labels=self.labels, logits=self.scores))

 

156 self.l2_loss_rs = tf.nn.l2_loss(self.user_embeddings) + tf.nn.l2_loss (self.item_embeddings)

 

157 for var in self.vars_rs:

 

158 self.l2_loss_rs += tf.nn.l2_loss(var)

 

159 self.loss_rs = self.base_loss_rs + self.l2_loss_rs * args.l2_weight

 

160

 

161 #计算知识图谱词嵌入模型的 loss 值

 

162 self.base_loss_kge = -self.scores_kge

 

163 self.l2_loss_kge = tf.nn.l2_loss(self.head_embeddings) + tf.nn.l2_loss (self.tail_embeddings)

 

164 for var in self.vars_kge: #计算 L2 正则

 

165 self.l2_loss_kge += tf.nn.l2_loss(var)

 

166 self.loss_kge = self.base_loss_kge + self.l2_loss_kge * args.l2_weight

 

167

 

168 def _build_train(self, args): #定义优化器

 

169 self.optimizer_rs = tf.train.AdamOptimizer(args.lr_rs).minimize(self.loss_rs)

 

170 self.optimizer_kge = tf.train.AdamOptimizer(args.lr_kge). minimize(self. loss_kge)

 

171

 

172 def train_rs(self, sess, feed_dict): #训练推荐算法模型

 

173 return sess.run([self.optimizer_rs, self.loss_rs], feed_dict)

 

174

 

175 def train_kge(self, sess, feed_dict): #训练知识图谱词嵌入模型

 

176 return sess.run([self.optimizer_kge, self.rmse], feed_dict)

 

177

 

178 def eval(self, sess, feed_dict): #评估模型

 

179 labels, scores = sess.run([self.labels, self.scores_normalized], feed_dict)

 

180 auc = roc_auc_score(y_true=labels, y_score=scores)

 

181 predictions = [1 if i >= 0.5 else 0 for i in scores]

 

182 acc = np.mean(np.equal(predictions, labels))

 

183 return auc, acc

 

184

 

185 def get_scores(self, sess, feed_dict):

 

186 return sess.run([self.item_indices, self.scores_normalized], feed_dict)

 

代码第 173、176 行, 分别是训练推荐算法模型和训练知识图谱词嵌入模型的方法。因为在训练的过程中,两个子模型需要交替的进行独立训练,所以将其分开定义。

 

四、训练模型并输出结果

 

训练模型的代码在本书配套的“7-15 train.py ”文件中,读者可以自行参考。代码运行后输出以下结果:

 

……

 

epoch 9 train auc: 0.9540 acc: 0.8817 eval auc: 0.9158 acc: 0.8407 test auc: 0.9155 acc: 0.8399

 

在输出的结果中,分别显示了模型在训练、评估、测试环境下的分值。

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注