本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.
在现实世界的许多应用当中,很多数据集都天然的带有某种图结构信息,例如社交网络、万维网、知识网络、蛋白质分子结构和论文互相引用形成的网络等等。在学习每个节点的特征时,传统的机器学习方法并不能很好地利用图结构信息直接进行训练,以捕捉每个节点的上下文信息(Context)或者对其他节点的依赖关系。最近,出现了一种名为图神经网络(Graph Neural Network)的模型,它提出了一种通用的、利用图结构信息训练神经网络的方法,这里对其核心的思想进行一下总结。
如上图所示,若已知一个图结构
,
其中,
对于每一个节点 ,在使用上述公式进行
随着对图神经网络研究的深入,人们也提出了许多聚合函数
对所有节点初始特征向量进行预处理能有效提升性能,例如归一化(Normalization)操作和使用PCA进行去噪(Whitening)
使用Adam优化算法对误差函数进行优化可以自适应地调整学习因子(Learning Rate),从而找到更好的模型参数
使用ReLU作为激活函数通常能得到最好的效果
在最后的输出层不使用ReLU激活函数可能会提升性能
在所有的神经网络参数中使用偏移项(Bias Term)可以提升性能
Be First to Comment