Press "Enter" to skip to content

无监督学习概述之无监督特征学习

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

共发表: 第204篇

 

 

无监督学习概述

 

无监督学习(Unsupervised Learning)是指从无标签的数据中学习出一些有用的模式,无监督学习一般直接从原始数据进行学习,不借助人工标签和反馈等信息。典型的无监督学习问题可以分为以下几类:

 

无监督特征学习(Unsupervised Feature Learning)

 

从无标签的训练数据中挖掘有效的特征表示,无监督特征学习一般用来进行降维,数据可视化或监督学习前期的特征预处理。

 

密度估计(Density Estimation)

 

是根据一组训练样本来估计样本空间的概率密度。密度估计可以分为:参数密度估计和非参数密度估计。参数密度估计是假设数据服从某个已知概率密度函数形式的分布,然后根据训练样本去估计该分布的参数。非参数密度估计是不假设服从某个概率分布,只利用训练样本对密度进行估计,可以进行任意形状的密度估计,非参数密度估计的方法包括:直方图、核密度估计等。

 

聚类(Clustering)

 

是将一组样本根据一定的准则划分到不同的组。一个通用的准则是组内的样本相似性要高于组间的样本相似性。常见的聚类方法包括:KMeans、谱聚类、层次聚类等。

 

聚类大家已经非常熟悉了, 接下来将会分为两篇介绍无监督特征学习和概率密度估计,本篇主要介绍无监督特征学习 。

 

无监督特征学习

 

无监督特征学习是指从无标注的数据中自动学习有效的数据表示,从而能够帮助后续的机器学习模型达到更好的性能。无监督特征学习主要方法有:

 

主成分分析

 

稀疏编码

 

自编码器

 

主成分分析

 

主成分分析(Principal Component Analysis,PCA)是一种最常用的数据降维方法,使得在转换后的空间中数据的方差最大。以下部分摘自于 https://zhuanlan.zhihu.com/p/32412043

 

PCA中的最大可分性思想

 

PCA降维,用原始样本数据中最主要的方面代替原始数据,最简单的情况是从2维降到1维,如下图所示,我们希望找到某一个维度方向,可以代表两个维度的数据,图中列了两个方向 ,那幺哪个方向可以更好的代表原始数据呢?

最大可分性示例

从直观上看,比

基变换

基变换

其中 是一个行向量,表示第i个基, 是一个列向量,表示第 个原始数据记录,特别要注意的是,这里R可以小于N,而R决定了变维后数据的维数。

 

从上图和文字解释我们可以得到一种矩阵相乘的物理解释:两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。更抽象的说,一个矩阵可以表示一种线性变换。很多同学在学习矩阵相乘时,只是简单的记住了相乘的规则,但并不清楚其背后的物理意义。

 

方差

 

如何考虑一个方向或者基是最优的,看下图:

周志华机器学习插图

我们将所有的点向两条直线做投影,基于前面PCA最大可分性思想,我们要找的是降维后损失最小,可以理解为投影后数据尽可能的分开,那幺在数学中去表示数据的分散使用的是方差,我们都知道方差越大,数据越分散,方差的表达式如下:

 

 

其中为样本均值,如果提前对样本做去中心化,则方差表达式为:

 

 

到现在,我们知道了以下几点:

 

对原始数据进行(线性变换)基变换可以对原始样本给出不同的表示

 

基的维度小于样本的维度可以起到降维的作用,

 

对基变换后新的样本求其方差,选取使其方差最大的基

 

那幺再考虑另外一个问题?

 

上面只是说明了优化目标,但并没有给出一个可行性的操作方案或者算法,因为只说明了要什幺,但没说怎幺做,所以继续进行探讨。

 

协方差

 

从二维降到一维可以采用方差最大来选出能使基变换后数据分散最大的方向(基),但遇到高纬的基变换,当完成第一个方向(基)选择后,第二个投影方向应该和第一个“几乎重合在一起”,这样显然是没有用的,要有其他的约束,我们希望两个字段尽量表示更多的信息,使其不存在相关性。

 

数学上使用协方差表示其相关性。

 

 

当Cov(a,b)=0时表示两个字段完全独立,也是我们优化的目标。

 

注意这里的 是经过去中心化处理的。

 

协方差矩阵

 

我们想要达到的目标与字段内方差及协方差有密切的关系,假如只有a、b两个字段,将他们按行组成矩阵X,表示如下:

然后用X乘以X的转置矩阵,并乘以系数 1/m
得:

可见,协方差矩阵是一个对称的矩阵,而且对角线是各个维度的方差,而其他元素是a 和 b的协方差,然后会发现两者被合并到了一个矩阵内。

 

协方差矩阵对角化

 

我们的目标是使 ,根据上述的推导,可以看出优化目标是 等价于协方差矩阵对角化。即除对角线外的其他元素(如 )化为0,并且在对角线上将元素按大小从上到下排列,这样我们就达成了优化目的。

 

这样说可能不是很明晰,我们进一步看下原矩阵和基变换后矩阵协方差矩阵的关系:

 

设原始数据矩阵为X,对应的协方差矩阵为C,而P是一组基按行组成的矩阵,设Y=PX,则Y为X对P做基变换后的数据。设Y的协方差矩阵为D,我们推导一下D与C的关系:

 

 

可见我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。换句话说,优化目标变成了寻找一个矩阵P,满足 是一个对角矩阵,并且对角元素按从大到小依次排列,那幺P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件。

 

我们希望投影后的方差最大化,于是优化目标可以改写为:

 

 

利用拉格朗日函数可以得到:

 

 

对P求导有 ,整理得:

 

于是,只需对协方差矩阵C进行特征分解,对求得的特征值进行排序,再对

取前K列组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y。

 

PCA算法流程

 

从上边可以看出,求样本的维的主成分,其实就是求样本集的协方差矩阵 的前维个特征值对应特征向量矩阵P,然后对于每个样本,做如下变换 ,即达到PCA降维的目的。

 

具体的算法流程如下:

 

输入:n维的样本集 ,要降维到的维数

 

输出:降维后的维度Y

 

 

对所有的样本集去中心化

 

计算样本的协方差矩阵

 

求出协方差矩阵对应的特征值和对应的特征向量

 

将特征向量按照特征值从大到小,从上到下按行排列成矩阵,取前k行组成矩阵P

 

即为降维到K维之后的数据

 

 

注意:有时候降维并不会指定维数,而是指定一个比例,比如降维到原先的t比例。

 

PCA算法总结

 

PCA算法的主要优点:

 

仅仅需要以方差衡量信息量,不受数据集意外因素的影响

 

各主成分之间正交,可消除原始数据各成分间的相互影响的因素

 

方法设计简单,主要运算是特征值分解,易于实现

 

PCA算法的主要缺点:

 

主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的可解释性强

 

方差小的非主成分也可能包含对样本差异的重要信息,因降维丢弃可能会对后续数据处理有影响

 

当样本特征维度较大时,需要巨大的计算量(比如,10000*10000,这时候就需要SVD[奇异值分解],SVD不仅可以得到PCA降维的结果,而且可以大大的减小计算量)

 

稀疏编码

 

稀疏编码(Sparse Coding)介绍

 

在数学上,线性编码是指给定一组基向量 ,将输入样本 表示为这些基向量的线性组合

 

 

 

称为输入样本x的编码,基向量A也称为字典(dictionary)。

 

编码是对d维空间中的样本x找到其在p维空间中的表示(或投影),其目标通常是编码的各个维度都是统计独立的,并且可以重构出输入样本。编码的关键是找到一组“完备”的基向量A,比如主成分分析等。但是是主成分分析得到的编码通常是稠密向量,没有稀疏性。

 

如果p个基向量刚好可以支撑p维的欧式空间,则这p个基向量是完备的,如果p个基向量可以支撑d维的欧式空间,并且p>d,则这p个基向量是过完备,冗余的。

 

“过完备”基向量一般指的是基向量个数远大于其支撑空间维度,因此这些基向量一般是不具备独立,正交等性质。

 

给定一组N个输入向量 ,其稀疏编码的目标函数定义为:

 

 

 

是一个稀疏性衡量函数,是一个超参数,用来控制稀疏性的强度。

 

对于一个向量 ,其稀疏性定义为非零元素的比例。如果一个向量只有很少的几个非零元素,就说这个向量是稀疏的。稀疏性衡量函数 是给向量z一个标量分数。z越稀疏, 越小。

 

稀疏性衡量函数有多种选择,最直接的衡量向量z稀疏性的函数是范式

 

但范数不满足连续可导,因此很难进行优化,在实际中,稀疏性衡量函数通常选用范数

 

 

或对数函数

 

或指数函数

 

 

训练方法

 

给定一组N个输入向量 ,需要同时学习基向量A以及每个输入样本对应的稀疏编码

 

稀疏编码的训练过程一般用交替优化的方法进行(这一点和ALS很相似)。

 

(1)固定基向量A,对每个输入,计算其对应的最优编码(原内容为减去稀疏性衡量函数,觉得不对)

 

 

(2)固定上一步得到的编码 ,计算其最优的基向量

 

 

其中第二项为正则化项,为正则化项系数。

 

稀疏编码优缺点

 

稀疏编码的每一维都可以看作是一种特征,和基于稠密向量的分布式表示相比,稀疏编码具有更小的计算量和更好的可解释性等优点。

 

计算量稀疏性带来的最大好处就是可以极大的降低计算量

 

可解释性因为稀疏编码只有少数的非零元素,相当于将一个输入样本表示为少数几个相关的特征,这样我们可以更好的描述其特征,并易于理解

 

特征选择稀疏性带来的另一个好处是可以实现特征的自动选择,只选择和输入样本相关的最少特征,从而可以更好的表示输入样本,降低噪声并减轻过拟合

 

自编码器

 

自编码器(Auto-Encoder,AE)是通过无监督的方式来学习一组数据的有效编码。

 

假设有一组d维的样本 ,自编码器将这组数据映射到特征空间得到每个样本的编码 ,并且希望这组编码可以重构出原来的样本。

 

自编码器的结构可分为两部分:(encoder): 和解码器(decoder):

 

自编码器的学习目标是最小化重构误差(reconstruction errors)

 

如果特征空间的维度p小于原始空间的维度d,自编码器相当于是一种降维或特征抽取方法。如果

 

为单位函数(Identity Function),并使得重构错误为0。但是这样的解并没有太多的意义,但是如果再加上一些附加的约束,就可以得到一些有意义的解,比如编码的稀疏性、取值范围,f和g的具体形式等。如果我们让编码只能取k个不同的值(k<N),那幺自编码器就可以转换为一个k类的聚类问题。

 

最简单的自编码器如下图所示的两层神经网络,输入层到隐藏层用来编码,隐藏层到输出层用来解码,层与层之间互相全连接。

最简单的自编码器

 

对于样本x,中间隐藏层为编码:

 

 

输出为重构的数据

 

其中
为网格参数,
为激活函数。如果令
等于

 

,称为捆绑权重(tied weights)。

 

给定一组样本 ,其重构错误为:

 

 

其中为正则化系数,通过最小化重构误差,可以有效的学习网格的参数。

 

我们使用自编码器是为了得到有效的数据表示,因此在训练数据后,我们一般去掉解码器,只保留编码器,编码器的输出可以直接作为后续机器学习模型的输入。

 

稀疏自编码器

 

自编码器除了可以学习低维编码之外,也学习高维的稀疏编码。假设中间隐藏层z的维度为p,大于输入样本的维度,并让z尽量稀疏,这就是稀疏自编码器(Sparse Auto-Encoder)。和稀疏编码一样,稀疏自编码器的优点是有很高的模型可解释性,并同时进行了隐式的特征选择。

 

通过给自编码器中隐藏单元z加上稀疏性限制,自编码器可以学习到数据中一些有用的结构。

 

堆叠自编码器

 

对于很多数据来说,仅使用两层神经网络的自编码器还不足以获取一种好的数据表示,为了获取更好的数据表示,我们可以使用更深层的神经网络。深层神经网络作为自编码器提取的数据表示一般会更加抽象,能够很好的捕捉到数据的语义信息。在实践中经常使用逐层堆叠的方式来训练一个深层的自编码器,称为堆叠自编码器(Stacked Auto-Encoder,SAE)。堆叠自编码一般可以采用逐层训练(layer-wise training)来学习网络参数。

 

降噪自编码器

 

降噪自编码器(Denoising Autoencoder)就是一种通过引入噪声来增加编码鲁棒性的自编码器。对于一个向量x,我们首先根据一个比例随机将x的一些维度的值设置为0,得到一个被损坏的向量。然后将被损坏的向量输入给自编码器得到编码z,并重构原始的无损输入x。

 

下图给出了自编码器和降噪自编码器的对比,其中为编码器,为解码器, 为重构错误。

自编码器和降噪自编码器的对比

降噪自编码器的思想十分简单,通过引入噪声来学习更鲁棒性的数据编码,并提高模型的泛化能力。

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注