Press "Enter" to skip to content

生成对抗网络(GAN)的数学原理全解

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

©PaperWeekly 原创 · 作者|孙裕道

 

学校|北京邮电大学博士生

 

研究方向|GAN图像生成、情绪对抗样本生成

 

 

论文标题:

 

A Mathematical Introduction to Generative Adversarial Nets

 

论文链接:

 

https://arxiv.org/abs/2009.00169

 

 

引言

 

Goodfellow 大神的开创性工作 GAN 自 2014 年诞生以来,GAN 就受到了极大的关注,并且这种关注导致了 GANs 的新思想、新技术和新应用的爆炸式增长。

 

GAN 的原论文中的证明会有一些不严谨的地方,并且在算法中为了训练效率更高,也有很多简化,其实这也是这个领域的一个常见现象,在北大的深度学习的数学原理的暑期课上,老师就提到过 深度学习中数学严谨证明占 6 成 。

 

言外之意就是该领域的证明过程并没有纯数学的那幺严谨,当从计算机科学工程师角度去推导证明的时候,往往会有跟实际相悖的前提假设,但是从该假设推导出来的结论却是与实验结果相符或者该结论会对解决实际问题中有一定的指导意义。

 

该作者是一个数学底蕴很强的 AI 研究者,该论文的目的是试图从数学的角度对 GANs 进行概述,是一篇不可多得好有关 GAN 数学原理的理论性文章,论文中涉及到大量的数学原理和很多让人眼花缭乱的数学符号,可以把它当成一个 GAN 的理论手册,对哪一块感兴趣就可以认真研读一番 。

 

 

GAN背景介绍

 

荣获图灵奖品有深度学习三剑客之称的 Yann LeCun 称曾表示“GAN 的提出是最近 10 年在深度学习中最有趣的想法”。

 

下图表示这 2014 到 2018 年以来有关 GAN 的论文的每个月发表数量,可以看出在 2014 年提出后到 2016 年相关的论文是比较少的,但是从 2016 年,或者是 2017 年到今年这两年的时间,相关的论文是真的呈现井喷式增长。

 

GAN 的应用十分广泛,它的应用包括图像合成、图像编辑、风格迁移、图像超分辨率以及图像转换,数据增强等。

 

 

在这篇论文中,作者将尝试从一个更数学的角度为初学者介绍 GAN,要完全理解 GANs,还必须研究其算法和应用,但理解数学原理是理解 GANs 的关键的第一步,有了它,GANs 的其他变种将更容易掌握。

 

GAN 的目标是解决以下问题:假设有一组对象数据集,例如,一组猫的图像,或者手写的汉字,或者梵高的绘画等等,GAN 可以通过噪声生成相似的对象,原理是神经网络通过使用训练数据集对网络参数进行适当调整,并且深度神经网络可以用来近似任何函数。

 

对于 GAN 判别器函数 D 和生成函数 G 建模为神经网络,其中具体 GAN 的模型如下图所示,GAN 网络实际上包含了 2 个网络,一个是生成网络 G 用于生成假样本,另一个是判别网络 D 用于判别样本的真假,并且为了引入对抗损失,通过对抗训练的方式让生成器能够生成高质量的图片。

 

 

具体的,对抗学习可以通过判别函数和生成函数之间的目标函数的极大极小值来实现。生成器 G 将来自于分布随机样本转化为生成样本。判别器试图将它们与来自分布的训练真实样本区分开来,而 G 试图使生成的样本在分布上与训练样本相似。

 

 

GAN的数学公式

 

GAN的对抗博弈可以通过判别函数和生成函数之间的目标函数的极大极小值来进行数学化的表示。生成器将随机样本分布转化为生成样本。判别器试图将它们与来自分布的训练样本区分开来,而试图使生成的样本在分布上与训练样本相似。对抗的目标损失函数如下所示为:

 

其中公式中,表示关于下标中指定分布的期望值。GAN 解决的极小极大值的描述如下所示:

 

直观上,对于给定的生成器,优化判别器以区分生成的样本,其原理是尝试将高值分配给来自分布的真实样本,并将低值分配给生成的样本。

 

相反,对于给定的鉴别器,优化,使得生成的样本将试图“愚弄”判别器以分配高值。 设 ,其分布为 ,可以用 和 重写 为:

 

 

将上面的极大极小问题变为如下公式:

 

假设具有密度,具有密度函数(需要注意的是只有当时才会发生)。综上所述最终可以写成:

 

 

可以观察到,在某些的的约束下,上述值与等效。

 

论文中有大量公式和证明,会看的让人很头大,而且不同的命题和不同的定理交错出现,为了读者能够减少阅读障碍,我从中挑选了一些自认为比较重要的定理和命题,并且给它们重新进行了排序整理。

 

命题1: 给定在上的概率分布和,其中它们的概率密度函数为和,则有如下:

 

 

其中,,的取值范围为(sup表示上确界)。

 

定理1: 设是上的概率密度函数。对于密度函数为和的概率分布,其极大极小值问题可以描述为:

 

对所有,可以解得and。

 

定理 1 说极大极小问题的解就是 Ian Goodfellow 在 2014 年那篇论文中推导出的 GAN 的优化解。

 

定理2: 设为上给定的概率分布。对于概率分布和函数,则有:

 

其中,and对于来说几乎处处存在。

 

命题2: 如果在每个训练周期中,允许鉴别器达到其最佳给定,然后更新,根据最小化准则有:

 

 

其中,分布是收敛于分布。

 

从纯数学的角度来看,这个命题 2 并不严谨。然而,它为解决 GAN 极小极大问题提供了一个实用的框架。

 

综上命题和定理可以将其归纳为如下的 GAN 算法框架,为了表达清晰,重新整理了一下该算法框架。

 

 

 

f-散度和f-GAN

 

4.1 f-散度

 

GAN 的核心本质是通过对抗训练将随机噪声的分布拉近到真实的数据分布,那幺就需要一个度量概率分布的指标—散度。 我们熟知的散度有 KL 散度公式如下(KL 散度有一个缺点就是距离不对称性,所以说它不是传统真正意义上的距离度量方法)。

 

 

和 JS 散度公式如下(JS 散度是改进了 KL 散度的距离不对称性):

 

 

但是其实能将所有我们熟知散度归结到一个大类那就是 f- 散度,具体的定义如下所示:

 

定义1: 设和是上的两个概率密度函数。则和的 f- 散度定义为:

 

 

其中,如果时,会有。

 

需要搞清楚一点事的 f- 散度依据所选函数不一样,距离的不对称也不一样。

 

命题3: 设是域上的严格凸函数,使得。假设(相当于)或,其中。则有,当且仅当。

 

4.2 凸函数和凸共轭

 

凸函数 的凸共轭也被称为的 Fenchel 变换或 Fenchel-Legendre 变换,它是着名的 Legendre 变换的推广。设是定义在区间上的凸函数,则其凸共轭定义为:

 

 

引理1: 假设是严格凸的,且在其域上连续可微,其中与。则有:

 

 

命题4: 设是上的凸函数,其值域在内。那幺是凸的并且是下半连续的。此外,如果是下半连续的,则满足 Fenchel 对偶。

 

下表列出了一些常见凸函数的凸对偶,如下表所示:

 

 

4.3 用凸对偶估计f-散度

 

为了估计样本的 f- 散度可以使用 f 的凸对偶,具体的推导公式如下所示:

 

 

其中是任何 Borel ,这样就得到了所有的 Borel 函数如下所示:

 

 

命题5: 设是严格凸的且在上连续可微的,设,是上的 Borel 概率测度,使得,则有:

 

其中是一个优化器。

 

定理3: 设是凸的,使得的域对某些包含,设是上的 Borel 概率测度,则有:

 

其中对于所有的 Borel 函数有。

 

定理4: 设是下半连续凸函数,使得的域具有。设为上的 Borel 概率测度,使得,其中和 。那幺:

 

 

其中对于所有的 Borel 函数有。

 

4.4 f-GAN和VDM

 

用 f- 散度来表示 GAN 的推广。对于给定的概率分布,f-GAN 的目标是最小化相对于概率分布的 f- 散度。在样本空间中,f-GAN 解决了下面的极大极小问题:

 

可以将如上的优化问题称为变分散度最小化(VDM)。注意 VDM 看起来类似于 GAN 中的极大极小值问题,其中 Borel 函数被称为评判函数。

 

定理5: 设是一个下半连续严格凸函数,使得的域。进一步假定在其域上是连续可微的,且并且。设 上的 Borel 概率测度,则有如下公式:

 

其中对于所有的 Borel 函数有。

 

综上所述,下面为 f-GAN 的算法流程框架。

 

 

4.4.1 Example1:

 

当函数,这里的f-散度就是为我们熟知的 KL 散度。则它的共轭函数为,其中,其相应的目标函数为:

 

其中,忽略掉常数 +1 的常数项,并且,然后会有我们最原始的那种 GAN 的形式:

 

 

4.4.2 Example2:

 

这就是詹森-香农散度,该函数的共轭函数为,域。相应的 f-GAN 的目标函数为:

 

 

其中,,,所以进一步可以化简为:

 

其中在这个公式中忽略掉常数项。

 

4.4.3 Example3: ,

 

该函数的共轭函数为,域。当不是严格凸的连续可微时,相应的 f-GAN 目标函数如下所示:

 

上面这个目标函数的形式就是 Wasserstein GAN 的目标函数。

 

4.4.4 Example4:

 

已知,所以该函数为严格凸函数。相应的 f-GAN 的目标函数为:

 

对上公式进一步求解可得:

 

 

其中里面有原始 GAN 论文中使用的“logD”技巧,用于 GAN 解决梯度饱和问题。

 

 

GAN的具体实例

 

对于 GAN 的应用实例,我没有按照论文中给出的实例进行介绍,我介绍了在自己的感官上觉得不错的 GAN。

 

5.1 WGAN

 

训练一个 GAN 可能很困难,它经常会遇到各种问题,其中最主要的问题有以下三点:

 

消失梯度:这种情况经常发生,特别是当判别器太好时,这会阻碍生辰器的改进。使用最佳的判别器时,由于梯度的消失,训练可能失败,因此无法提供足够的信息给生成器改进。

 

模式塌缩:这是指生成器开始反复产生相同的输出(或一小组输出)的现象。如果判别器陷入局部最小值,那幺下一个生成器迭代就很容易找到判别器最合理的输出。判别器永远无法学会走出陷阱。

 

收敛失败:由于许多因素(已知和未知),GANs 经常无法收敛。

 

WGAN 做了一个简单的修改,用 Wasserstein 距离(也称为推土机(EM)距离)代替 GAN 中的 Jensen-Shannon 散度损失函数。不要忽视这一修改的意义:这是自 GAN 诞生以来本课题最重要的进展之一,因为 EM 距离的使用有效地解决了基于散度的 GAN 的一些突出缺点,从而可以减轻 GANs 训练中常见的故障模式。

 

5.2 DCGAN

 

DCGAN 是将卷积引入到 GAN 的训练过程中,使得参数量和训练效果更好,它实际训练 GANs 中提供了很多的指导方向,具体有如下五点:

 

用跨步卷积替换生成器和判别器中的任何池化层。

 

在生成器和鉴别器中使用批处理规范化。

 

移除完全连接的隐藏层以获得更深层的架构。

 

除了使用 Tanh 的输出之外,在生成器中对所有层使用 ReLU 激活,。

 

在所有层的判别器中使用 LeakyReLU 激活。

 

需要注意的是判别器是从高维向量到低维向量是卷积过程,如下图所示:

 

 

生成器是低维向量到高维向量是一个反卷积过程,反卷积又名转置卷积和微步卷积,卷积和反卷积两者的区别在于 padding 的方式不同,看看下面这张图片就可以明白了:

 

 

DCGAN 还有一个重要的创新之处在于将矢量加法引入到图像生成中,如下图所示:

 

 

5.3 StyleGAN

 

StyleGAN 提出了一个新的生成器框架,号称能够控制所生成图像的高层级属性,如发型、雀斑等;并且生成的图像在一些评价标准上得分更好,作为无监督学习的一种 GAN,它能够从噪声生成高分辨率的高清图像。具体的算法框架原理图如下所示:

 

 

StyleGAN 中生成的图像之清晰,细节之丰富由下图可见一斑,当然训练的成本也是很高的。

 

 

5.4 zi2zi

 

zi2zi 是我最喜欢的 GAN 的一种应用,它是利用 GAN 来对字体风格进行转换,以前的工作是处理类似的中文字体转化问题,结果不是很理想,纠其原因有生成的图片通常很模糊,对更多的有风格的字体处理时效果不好,每次只能有限地学习和输出一种目标字体风格,GAN 能很好的解决以上问题,其模型框架如下图所示:

 

 

中文字符,不论简体还是繁体,或者日本文,都用相同的原理构建并有着一系列相同的根基,其中具体的实现结果如下图所示:

 

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注