Press "Enter" to skip to content

广告行业中那些趣事系列34:风头正劲的对比学习和项目实践

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

导读:本文是“数据拾光者”专栏的第三十四篇文章,这个系列将介绍在广告行业中自然语言处理和推荐系统实践。本篇从理论到实践介绍了当前很火的对比学习模型,对于希望将对比学习应用到实际项目中的小伙伴可能有所帮助。

 

欢迎转载,转载请注明出处以及链接,更多关于自然语言处理、推荐系统优质内容请关注如下频道。

 

知乎专栏:数据拾光者

 

公众号:数据拾光者

 

摘要: 本篇从理论到实践介绍了当前很火的对比学习模型。首先介绍了背景,主要是对比学习大火的原因以及如何应用到我们的实际业务中;然后从理论方面重点介绍了对比学习,包括对比学习的由来和目标、对比学习的指导原则以及构建模型的三个关键问题、对比学习分类,其中重点介绍了基于负例的对比学习方法中的SimCLR模型;最后介绍了微博将对比学习应用到自然语言处理场景和多模态场景项目实践。对于希望将对比学习应用到实际项目中的小伙伴可能有所帮助。

 

下面主要按照如下思维导图进行学习分享:

 

 

01

 

背景介绍

 

1.1 当前风头正劲的对比学习

 

最近一段时间对比学习(Contrastive Learning)风头正劲,不管是一线大神还是一线大厂,大家似乎都在讨论对比学习,最直观的现象就是关注的很多机器学习相关的公众号都有发表对比学习相关的文章。紧跟技术前沿,我调研了很多对比学习相关的文章以及大厂关于对比学习的项目实践整理成这篇文章,希望不仅可以了解对比学习的原理,而且可以 将对比学习落地到我们的项目实践并产出价值,让技术为业务赋能 。也希望机器学习相关的小伙伴能注重这种技术赋能业务的思维,技术尤其是机器学习相关的技术如果不能落地产生实际业务价值,那幺这项技术的价值本身就会大打折扣。

 

1.2 对比学习大火的原因

 

对比学习突然在工业界和学术界大火主要原因在于: 对比学习作为一种无监督训练模型,在很多场景中效果已经超过有监督训练模型 。在此之前先提一句有监督学习模型和无监督学习模型。有监督学习模型需要一定的标注数据,比如识别猫狗图片的任务,需要提前标注一批猫和狗的图片提供给模型训练。而无监督学习模型则不需要标注数据。通常情况下有监督学习模型的效果要优于无监督学习模型,因为可以通过标注数据学习到有价值的信息。而有监督学习模型的缺点在于模型的普适性效较差。而无监督学习模型因为不需要标注数据,所以模型的普适性较好,但是效果稍微差点。然后这时候 作为无监督学习模型的对比学习竟然在多个任务中模型效果要优于有监督学习模型 ,这种有点“反常”的操作自然就像一颗炸弹引爆了机器学习圈。这就是对比学习大火的主要原因。

 

1.3 在我们业务中应用对比学习

 

对比学习最早是应用在图像领域,后来又快速扩展到自然语言处理领域。对于我们实际项目中,可以利用对比学习更好的理解文本、图片、视频等item数据源,从而更好的为数据源打标(item-tag任务),召回相似搜索(item-相似item任务),获取更有价值的embedding向量用于下游扩量任务等等。

 

02

 

详解对比学习

 

2.1 对比学习的由来和目标

 

说起对比学习,还必须先讲讲自然语言处理领域具有里程碑意义的BERT模型。BERT模型是典型的预训练和微调两阶段模型,因为效果好和应用范围广而大火,其中最重要的原因就是 预训练阶段通过海量的文本数据进行无监督训练学习语言学知识 ,然后通过迁移学习将预训练学到的知识应用到下游任务中。所以 通过无监督学习利用海量的无标签数据非常重要 。而图像领域中的预训练主要是有监督的预训练方式,一般是用有标签的数据集用ImageNet来进行预训练。这里有监督的预训练和无监督的预训练最大的区别就在于数据集是否有标签,而这也是最重要的。深度学习之所以能取得如此傲人的战绩,在于可以使用更多的数据集。从BERT、GPT、RoBERTa到T5再到GPT2、GPT3等模型不断的刷新很多任务的SOTA,一次次的说明 使用更多的数据集可以有效提升模型的效果 。对于无监督学习模型来说使用更多的数据集根本不是问题,而对于有监督学习模型来说简直就是噩梦,因为标注成本是昂贵的,基本就限制了模型可用的数据规模。图像领域的研究者们为了像BERT一样构建基于无监督学习的预训练模型提出了对比学习,这就是对比学习的由来。

 

说完了对比学习的由来,那 对比学习的目标也就清楚了:和BERT模型类似,通过无监督学习的方式利用海量的数据构建预训练模型,从而获取图像的先验知识。然后通过迁移学习将获取的图像知识应用到下游任务中。

 

2.2 图像领域中的无监督学习

 

前面也说过无监督学习就是使用无标签的数据集来学习知识。 图像领域中的无监督学习主要分成两种:生成式无监督学习和判别式无监督学习 。生成式无监督学习主要包括变分自编码器VAE和生成对抗网络GAN,在图像领域听的比较多,他们的一个重要特征是要求模型重建图像或者图像的一部分。这类任务难度很高,需要像素级的重构,中间的图像编码需要包含很多细节信息。相比于生成式无监督学习来说,判别式无监督学习则简单很多, 对比学习就属于判别式无监督学习 。

 

2.3 对比学习的指导原则以及构建模型的三个关键问题

 

上面说过,对比学习属于判别式无监督学习, 对比学习核心的指导原则是:通过构造相似实例和不相似实例获得一个表示学习模型,通过这个模型可以让相似的实例在投影的向量空间中尽可能的接近,而不相似的实例尽可能的远离。

 

明确了对比学习的指导原则,要构建对比学习模型就需要解决三个关键问题:第一个问题是如何构造相似实例和不相似实例;第二个问题是如何构造满足对比学习指导原则的表示学习模型;第三个问题是如何防止模型坍塌(Modal Collapse)。至于这个防止模型坍塌就是要让相似的实例在投影的空间中尽可能接近,不相似的尽可能远离。如果模型坍塌了,那幺可能所有的实例都映射到了一个点,也就是一个常数。

 

2.4 对比学习分类

 

为了构建满足对比学习指导原则的模型,从防止模型坍塌的角度来说可以把现有的对比学习方法分成以下几类:

 

基于负例的对比学习方法

 

基于对比聚类的对比学习方法

 

基于不对称网络结构的对比学习方法

 

基于冗余消除损失函数的对比学习方法

 

2.5 基于负例的对比学习中的SimCLR

 

整体来看对比学习目前百花齐放,我们选一种 最容易理解并且效果还不错的SimCLR模型 进行讲解。SimCLR模型是Hinton在论文《A Simple Framework for Contrastive Learning of Visual Representations》中提出来的,属于基于负例的对比学习方法。SimCLR模型容易理解主要是因为模型采用对称结构,整体简单清晰,奠定了对比学习模型的标准结构。不仅如此,SimCLR模型效果还非常不错。后续很多的对比学习模型也是基于SimCLR进行改造的。要讲清楚SimCLR模型,最重要的是看它如何解决构建对比学习的三个关键问题。

 

2.5.1 SimCLR构造正例和负例

 

 

图1 SimCLR构造正例和负例

 

对于图像领域来说,构造正例和负例的方法是对一张图片t进行图像增强,这里图像增强可以是旋转、亮度、灰度等操作,然后从增强之后的图像数据集里面选择两张图片t1和t2,训练的时候将数据对<t1,t2>作为正例,将batch里面其他的图片s和t1(或者t2)构建负例对 <t1,s> 。因为对比学习的指导原则是希望得到一个表示学习模型,让图片映射到向量空间,使正例距离拉近,负例距离拉远。通过 这种构建正负例的方式可以让模型学习到图片内在一致结构信息,也就是某些类型的不变性 ,比如旋转不变性、亮度不变性等等。同时SimCLR模型证明了 使用更加复杂的图像增强技术或者融合多种图像增强技术可以提升对比学习任务的难度,从而有效提升模型的效果 。

 

2.5.2 SimCLR构造表示学习模型

 

上面已经构造好正负例,下面就是根据对比学习的指导原则来构建表示学习模型,这个模型可以样本映射到向量空间,并且使得相似的样本距离尽可能近,不相似的样本距离尽可能的远。下面是SimCLR模型结构:

 

 

图2 SimCLR模型结构

 

SimCLR模型结构基本上就是标准的双塔结构DSSM,关于双塔结构之前写过一篇文章,感兴趣的小伙伴可以去看看 《广告行业中那些趣事系列10:推荐系统中不得不说的DSSM双塔模型》 。从无标签训练集中随机获取N个数据集作为一个batch,对于batch里的任意图片进行图像增强,根据上述方法构造正负例,并形成两个增强视图Aug1和Aug2,增强视图Aug1和Aug2分别包含N个增强的数据。因为上下两个塔是标准对称的,所以只需要说明塔1就可以了。图像数据会经过一个编码器encoder,一般情况是ResNet模型,经过CNN操作之后会得到隐层向量hi;然后经过另一个非线性变换结构projector得到向量zi,其中projector结构是由[FC->BN->->FC]两层MLP构成。也就是经过两次非线性变换先将图片样本转换成hi,再转换成zi,就将图片映射到了表示空间。

 

2.5.3 SimCLR防止模型坍塌

 

将图片映射到向量空间之后,下一步就是让正例的距离尽量拉近,负例的距离尽量拉远,也就是SimCLR模型如何防止模型坍塌,这里需要通过定义损失函数来实现。SimCLR使用InfoNCE loss作为损失函数,对于单个实例i来说InfoNCE loss计算公式如下:

 

 

图3 InfoNCE损失函数计算公式

 

通过InfoNCE损失函数公式可以看出,分子正例样本对<zi,zi+>的距离越近loss越小,对应的分母负例样本对<zi,zj>距离越大loss越小。通过这种方式可以满足对比学习拉近正例疏远负例的指导原则。具体计算向量之间的距离主要是对表示向量进行L2正则化后进行点击相乘,下面是计算两个向量之间距离的公式:

 

 

图4 计算两个向量之间的距离

 

通过上述介绍我们了解了对比学习实现了通过无监督学习的方式利用海量的数据用于模型预训练流程,并且学习得到的向量可以满足对比学习让正例距离尽量相近,负例距离尽量拉远 的指导原则 。

 

2.5.4 SimCLR最大的贡献

 

说到SimCLR最大的贡献,要先提下SimCLR的模型结构。SimCLR将图片样本经过特征编码器encoder得到隐层向量hi,然后再经过一次非线性变化projector将hi向量转化成向量zi,相当于做了两次非线性变换。但是了解BERT的小伙伴都知道,我们将BERT作为编码器进行编码之后会直接接入下游任务相关的网络层。关于SimCLR模型为什幺要加入projector, SimCLR论文中对encoder和projecter的编码差异化进行了实验,结论是encoder之后的特征向量中包含很多图像增强信息。经过projector之后可以将一部分图像增强的信息过滤掉 。相当于为了构建无监督学习模型,SimCLR需要通过图像增强来构建正负例,而这种方法引入了额外的图像增强相关的信息。为了过滤掉这些信息,会在encoder之后添加projector,从而将这些额外增加的信息过滤掉。最后的 实验结果也证明添加projector结构可以提升模型的效果 。

 

介绍projector结构的原因是 SimCLR模型最大的贡献之一就是添加了projector结构,除此之外还证明了复合图像增强可以有效提升模型的效果 。

 

小结下,本节首先介绍了对比学习的由来和目标,然后介绍了图像领域中两种无监督学习方式,分别是生成式无监督学习和判别式无监督学习;接着介绍了对比学习的指导原则以及构建模型的三个关键问题,分别是如何构造相似实例和不相似实例、如何构造表示学习模型以及如何防止模型坍塌;最后介绍了对比学习分类,并详细介绍了其中最经典的基于负例的对比学习中的SimCLR模型。

 

03

 

大厂关于对比学习实践

 

上一节重点介绍了对比学习相关的理论知识,下面从实践的角度讲下一线大厂关于对比学习的实践。微博将对比学习落地到自然语言处理领域和多模态领域,并产生了不错的线上效果。

 

3.1 自然语言处理场景

 

微博在自然语言处理场景中利用对比学习构建了CD-TOM模型(Contrastive Document-Topic Model)。将同一微博中的<文档,话题>数据对作为训练数据通过对比学习构建表示学习模型,将微博正文和话题映射到同一表示空间中,从而使得语义相近的正文和话题距离拉近,语义不相近的距离拉远。 通过这种方式可以获得微博正文和话题的高质量embedding用于下游任务中 。CD-TOM模型结构如下图所示:

 

 

图5 CD-TOM模型结构

 

可以看出CD-TOM模型结构和SimCLR相似, 采用了典型的batch内负例的对比学习方法 。使用BERT作为encoder,之后会对句中每个单词对应Embedding累加后求均值(TAP, Token Average Pooling)操作。因为微博的算法工程师认为在文本表示时BERT的[CLS]向量表征文本内容的效果不佳,使用TAP操作或者将第一层Transformer和最后最一层Transformer得到的字向量累加之后再进行TAP操作效果可能更好(这里原因猜测是第一层Transformer之后的embedding向量包含更多的词向量信息,最后一层Transformer之后的embedding向量包含更多语句向量信息,将两者累加之后可以最大程度上保留词和语句的向量信息)。这个有一定的借鉴意义,之前在文本分类场景汽车分类器的优化实验中其实有对比过[CLS]向量和最后一层Transformer之后得到的向量进行Average、Sum等Pooling操作对文本分类效果的影响,当时的实验结论是影响不大,可能因为当时训练数据集规模不大,后面可以进行更加深入的尝试。

 

和SimCLR模型不同的是 CD-TOM并没有使用projector结构 ,根据微博算法工程师的解释说添加projector结构对模型导致负向效果。这里是否需要使用projector结构应该和实际项目相关,通过实验的方式来决定会更加合理,并不一定需要完全照搬SimCLR模型。

 

3.2 多模态场景

 

微博在多模态场景中构建了多模态模型W-CLIP(Weibo-CLIP),模型结构基本和CD-TOM保持一致,只不过是 用于构建微博正文和图片的对比表示学习模型 。W-CLIP模型结构如下图所示:

 

 

图6 W-CLIP模型结构

 

从上图中可以看出W-CLIP模型结构涉及两种模态数据:微博正文和图片。微博正文塔还是使用BERT作为编码器encoder,图片塔则使用ResNet作为encoder,其他基本不变。通过W-CLIP模型可以将微博正文和图片映射到同一表示空间,得到微博正文和图片的高质量embedding向量用于下游任务。

 

关于对比学习的实践主要是介绍了微博的项目,后续我们也会将对比学习应用到实际业务场景中,比如item数据源打标、相似item召回以及应用到下游扩量模型的实践等。

 

04

 

总结和反思

 

本篇从理论到实践介绍了当前很火的对比学习模型。首先介绍了背景,主要是对比学习大火的原因以及如何应用到我们的实际业务中;然后从理论方面重点介绍了对比学习,包括对比学习的由来和目标、对比学习的指导原则以及构建模型的三个关键问题、对比学习分类,其中重点介绍了基于负例的对比学习方法中的SimCLR模型;最后介绍了微博将对比学习应用到自然语言处理场景和多模态场景项目实践。对于希望将对比学习应用到实际项目中的小伙伴可能有所帮助。

 

05

 

参考文献

 

[1] A Simple Framework for ContrastiveLearning of Visual Representations

 

[2] 对比学习(ContrastiveLearning):研究进展精要

 

[3] 如何利用噪声数据:对比学习在微博场景的应用

 

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注