Press "Enter" to skip to content

为了提升在小数据集上的性能,有学者让神经网络像生物一样“进化”了|CVPR2021 Oral

 

作者丨二玖

 

如果将深度学习比作汽车,那数据集就是石油。深度学习对于数据集的依赖是不言而喻的。那幺一个深度学习领域悬而未决的挑战则是: 如何在较小的数据集上训练神经网络?

 

针对这一问题,马里兰大学的学者提出了一种以“ 进化 ”为灵感的训练方法: Knowledge Evolution(KE) 。这种名为KE的方法能 像生物进化一样,巧妙地提升神经网络在小数据集上的性能 。目前作者已经开源了这一方法。

KE将神经网络用两种假设进行拆分:拟合假设和重置假设,并通过多次扰动重置假设来迭代拟合假设中知识。这种方法不仅能提升性能,还能以较低的推理成本来获取一个精简的神经网络。同时,KE能减少过拟合和数据收集的负担。不但如此,KE支持各种网络结构和损失函数,还能与残差卷积网络,以及其他正则化技术(如标签平滑)等无缝集成。

 

下面我们将更详细地介绍这篇论文。

 

KE的主要贡献

 

在本文中,作者尝试用神经网络复制一个这样的生物过程:基因编码了从祖先到后代的遗传信息(知识),而基因传递将遗传信息从父母传递至其后代。虽然祖先并不一定具有更好的知识,但是遗传信息(知识)在几代人之间的发展将会促进后代更好的学习曲线。

 

因此,作者将深度神经网络的知识封装在一个名为拟合假设的子网络中,然后将拟合假设的知识从 父母网络 传递至其后代,即下一代神经网络。并反复重复此过程,在后代网络中证明了其性能的显着提升:

如下图所示,KE将神经网络分为两个假设(子网络):拟合假设和重置假设。通过重新训练多代网络来进化中的知识。而每一代都会通过扰乱内部的权重以鼓励学习独立的表达形式。这种知识进化方法能够提高神经网络在小数据集上的性能。

此外,为了降低推理成本,作者提出了一种为CNN量身定制的一种拆分技术,即内核级卷积感知拆分( ke rnel- l evel-convolutional-aware s plitting,KELS)。KELS同时支持CNN和残差网络,且既不引入超参数也不引入正则项。

 

知识进化方法详解

 

假设一个具有层的深度网络 。 网络 具有卷积滤波器,批范数以及权重为,偏置项为的完全连接层。

 

知识进化(KE)首先从概念上将深度网络N分为两个互斥假设(子网络):拟合假设和重置假设。这些假设由二进制掩码概述。 为1,为0,即和。 随后,网络被随机初始化,即和都被随机初始化。 训练期,并将已训练的网络称为第一代,其中,。

 

为了学习更好的网络(下一代),作者使用 重新初始化 网络,然后 重新训练 以学习。网络使用卷积滤波器和来自的拟合假设中的权重进行 重新初始化 ,而网络的剩余部分则被随机初始化。 作者使用哈达玛积重新初始化每层,如下所示:

 

类似地,作者通过它们相应的二进制掩码重新初始化权重和偏置。 网络架构仅在最后一个完全连接层中具有偏差项。 因此,对于这些架构,所有偏差项都属于拟合假设,即。并将学习的批规范进行无随机化的跨代传递。

 

重新初始化后,训练期以学习第二代。 为了学习更好的网络,反复为代 重新初始化 以及 重新训练 。 通过拟合假设将知识(卷积滤波器和权重)从一代传递至下一代。需要注意的是:

 

一代网络的贡献在初始化下一代后立刻结束,即每一代的训练都是独立的;

 

在训练了新一代后,两个假设中的权重都会发生变化 ,即 ,;

 

所有网络代都使用精确的超参数,即相同的期数、优化器、学习率调度器等)进行训练。

 

拆分网络

 

KE需要进行网络拆分。 作者主要采用了两种拆分技术:

 

 

weight- l everl s plitting(WELS),能用于突出KE通用性;

 

kernel- l evel convolutional-aware s plitting(KELS),一种有效的CNN技术。

 

 

WELS技术十分简单:对每一层,二进制掩码 将 分为两个专有部分:拟合假设 和重置假设 。给定拆分率,使用掩码随机分配权重,其中是内部权重的数量,。WELS技术支持完全连接,卷积,递归以及图卷积,这也印证了KE的通用性。

 

虽然KE通过WELS跨代提升了网络性能,但是WELS不能从CNN的连接中受益。因此,作者提出了一种既能提高性能,又能减少在小数据集上的推理成本的拆分技术,即KELS。利用CNN的连接性并引出拟合假设,对网络进行修剪。用内核遮罩替代加权遮罩,因此为内核级卷积感知分割( KELS)技术。给定一个拆分率和一个卷积滤波器,KELS引出拟合假设,以将第一个内核包括在第一个滤波器中,如下图所示。KELS保证了结果卷积滤波器之间的维度匹配。因此,KELS可以无缝集成在经典CNN(AlexNet和VGG)和具有残差连接的最新网络架构中。

KELS

知识进化的直觉

 

为了理解KE,作者给出了不需要KELS技术的两个互补直觉:Dropout和残差网络。

 

Dropout在训练过程中随机丢弃神经网络单元,使得神经网络单元减少相互依赖并学习独立表示。 类似的,在KE中通过在每一代之前随机初始化重置假设,我们可以在重新初始化期间丢弃。这同样让减少对的依赖,并学习独立表示。 通过评估各代的性能验证了这种直觉,且的性能随着代数的增加而增加。如下图所示:

Split-Nets vs Dropout

Res-Nets将连续层之间的默认映射设置为身份。但是从一个不同的角度来看,没有限制网络容量,Res-Nets在某些子网络(残差连接)中实现零映射。 类似地,KE通过跨代重复使用拟合假设来实现重置假设的零映射。 在第一代N1之后,与包含随机值的相比,总是更趋于收敛。 因此,KE促进了新一代网络在和中对前代网络的知识进化。

Split-Nets vs Res-Nets

对KE进行评估

 

作者在两个分类和度量学习这两个监督任务上对KE进行了评估。分类任务已有研究对深度神经网络在小型数据集上的性能进行了广泛的探讨,因此它提供了严格的性能基准。而在度量学习上的评估则突出了KE的灵活性与普遍性。

 

在分类任务上对KE进行评估

 

下图为用带有KELS的ResNet18进行定量分类评估。表示网络代的性能。 第一代既是KE的基准又是起点。 随着代数的增加,KE的性能提高。

下图为用带有WELS的DenseNet169进行的定量评估。

在度量学习任务上对KE进行评估

 

下图为使用标准度量学习数据集和架构进行的定量检索评估。

消融实验

 

(1)Dropout与Res-Net

 

在VGG11_bn上使用CUB-200进行定量分类评估,下图显示了10代密集网络和拟合假设的性能。

拟合假设在处的性能较差,但随着代数的增加,其性能也会提高。 和表示和 内部的平均绝对值。

(2)WELS 与 KELS

 

在ResNet18上使用Flower-102对KELS和WELS进行100代定量评估。下图左为密集网络的分类性能,右为拟合假设的性能。

(3)拆分率的tradeoffs

 

拆分率控制拟合假设的大小; 小的会降低推理成本,但是小的会减少的容量。下图左比较了使用CUB-200和GoogLeNet的两个拆分率的10代。两种分割率都在密集网络上显着提升了边际量。但是,下图右显示,较大的拆分率可以帮助拟合假设 更快地收敛并获得更好的性能。 因而对于大型数据集,需要大的拆分率才能使拟合假设的性能具有竞争力。

论文传递门

 

论文:

 

https://arxiv.org/abs/2103.05152

 

代码:

 

https://github.com/ahmdtaha/knowledge_evolution

 

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注