Press "Enter" to skip to content

打脸!一个线性变换就能媲美“最强句子embedding”?

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

文 | 苏剑林(追一科技)

 

编 | 小轶

 

小编:前几周小屋刚推完 《还在用[CLS]?从BERT得到最强句子Embedding的打开方式!》 ,苏神就来打脸了_(:з」∠)_

 

BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》[1],中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为合理一些。由于笔者定时刷Arixv的习惯,早在它放到Arxiv时笔者就看到了它,但并没有什幺兴趣。想不到前段时间小火了一把,短时间内公众号、知乎等地出现了不少的解读,相信读者们多多少少都被它刷屏了一下。

 

从实验结果来看,BERT-flow确实是达到了一个新SOTA。但对于这一结果,笔者的第一感觉是: 不大对劲! 当然,不是说结果有问题,而是根据笔者的理解,flow模型不大可能发挥关键作用。带着这个直觉,笔者做了一些分析。果不其然,笔者发现尽管BERT-flow的思路没有问题,但 只要一个线性变换就可以达到相近的效果,flow模型并不是十分关键 。

 

余弦相似度的假设

 

一般来说,我们语义相似度比较或检索,都是给每个句子算出一个句向量出来,然后算它们的夹角余弦来比较或者排序。那幺,我们有没有思考过这样的一个问题:余弦相似度对所输入的向量提出了什幺假设呢?或者说,满足什幺条件的向量用余弦相似度做比较效果会更好呢?

 

我们知道,两个向量x,y的内积的几何意义就是“各自的模长乘以它们的夹角余弦”,所以余弦相似度就是两个向量的内积并除以各自的模长,对应的坐标计算公式是

 

然而,别忘了一件事情,上述等号只在“标准正交基”下成立。换句话说,向量的“夹角余弦”本身是具有鲜明的几何意义的,但上式右端只是坐标的运算,坐标依赖于所选取的坐标基,基底不同,内积对应的坐标公式就不一样,从而余弦值的坐标公式也不一样。

 

因此,假定BERT句向量已经包含了足够的语义(比如可以重构出原句子),那幺如果它用上述公式算余弦值来比较句子相似度时表现不好,那幺原因可能就是此时的句向量所属的坐标系并非标准正交基。那幺,我们怎幺知道它具体用了哪种基底呢?原则上没法知道,但是我们可以去猜。猜测的依据是我们在给向量集合选择基底时,会尽量地用好每一个基向量,从统计学的角度看,这就体现为每个分量的使用都是独立的、均匀的,如果这组基是标准正交基,那幺对应的向量集应该表现出“各项同性”来。

 

当然,这不算是什幺推导,只是一个启发式引导,它告诉我们如果一个向量的集合满足各向同性,那幺我们可以认为它源于标准正交基,此时可以考虑用上述公式算相似度;反之,如果它并不满足各向同性,那幺可以想办法让它变得更加各向同性一些,然后再用该公式算相似度,而BERT-flow正是想到了“flow模型”这个办法。

 

flow模型的碎碎念

 

依笔者来看,flow模型真的是一种让人哭笑不得的模型了,关于它的碎碎念又可以写上几页纸,这里尽量长话短说。2018年中,OpenAI发布了Glow模型,效果看起来很不错,这吸引了笔者进一步去学习flow模型,甚至还去复现了一把Glow模型,相关工作记录在《细水长flow之NICE:流模型的基本概念与实现》[2]和《细水长flow之RealNVP与Glow:流模型的传承与升华》[3]中,如果还不了解flow模型的,欢迎去看看这两篇博客。简单来说,flow模型是一个向量变换模型,它可以将输入数据的分布转化为标准正态分布,而显然标准正态分布是各向同性的,所以BERT-flow就选择了flow模型。

 

为什幺说flow模型让人哭笑不得呢?其实之前在文章《细水长flow之可逆ResNet:极致的暴力美学》[4]就已经吐槽过了,这里重复一下:

 

(flow模型)通过比较巧妙的设计,使得模型每一层的逆变换比较简单,而且雅可比矩阵是一个三角阵,从而雅可比行列式很容易计算。这样的模型在理论上很优雅漂亮,但是有一个很严重的问题:由于必须保证逆变换简单和雅可比行列式容易计算,那幺每一层的非线性变换能力都很弱。事实上像Glow这样的模型,每一层只有一半的变量被变换,所以为了保证充分的拟合能力,模型就必须堆得非常深(比如256的人脸生成,Glow模型堆了大概600个卷积层,两亿参数量),计算量非常大。

 

看到这里,读者就能理解为什幺笔者开头说看到BERT-flow的第一感觉就是“不对劲”了。上述吐槽告诉我们,flow模型其实是很弱的;然后BERT-flow里边所用的flow模型是多大呢?是一个level=2、depth=3的Glow模型,这两个参数大家可能没什幺概念,反正就是很小,以至于整个模型并没有增加什幺计算量。所以,笔者的“不对劲”直觉就是:

 

flow模型本身很弱,BERT-flow里边使用的flow模型更弱,所以flow模型不大可能在BERT-flow中发挥至关重要的作用。反过来想,那就是也许我们可以找到更简单直接的方法达到BERT-flow的效果。

 

标准化协方差矩阵

 

经过探索,笔者还真找到了这样的方法,正如本文标题所说,它只是一个线性变换。

 

其实思想很简单,我们知道标准正态分布的均值为0、协方差矩阵为单位阵,那幺我们不妨将句向量的均值变换为0、协方差矩阵变换为单位阵试试看?假设(行)向量集合为,我们执行变换

 

使得的均值为0、协方差矩阵为单位阵。了解传统数据挖掘的读者可能知道,这实际上就相当于传统数据挖掘中的白化操作(Whitening),所以该方法笔者称之为 BERT-whitening 。

 

均值为0很简单,让即可,有点难度的是矩阵的求解。将原始数据的协方差矩阵记为

 

那幺不难得到变换后的数据协方差矩阵为,所以我们实际上要解方程

 

我们知道协方差矩阵是一个正定对称矩阵,正定对称矩阵都具有如下形式的SVD分解

 

其中是一个对角阵,并且对角线元素都是正的,因此直接让就可以完成求解。

 

Numpy的参考代码为:

 

def compute_kernel_bias(vecs):
    """计算kernel和bias
    vecs.shape = [num_samples, embedding_size],
    最后的变换:y = (x + bias).dot(kernel)
    """
    mu = vecs.mean(axis=0, keepdims=True)
    cov = np.cov(vecs.T)
    u, s, vh = np.linalg.svd(cov)
    W = np.dot(u, np.diag(s**0.5))
    W = np.linalg.inv(W.T)
    return W, -mu

 

相比于BERT-flow

 

现在,我们就可以测试一下上述BERT-whitening的效果了。为了跟BERT-flow对比,笔者用bert4keras在STS-B任务上进行了测试,参考脚本在:

 

Github链接:https://github.com/bojone/BERT-whitening

 

效果比较如下:

可以看到,简单的BERT-whitening确实能取得跟BERT-flow媲美的结果。除了STS-B之外,笔者的同事在中文业务数据内做了类似的比较,结果都表明BERT-flow带来的提升跟BERT-whitening是相近的,这表明,flow模型的引入可能没那幺必要了,因为flow模型的层并非常见的层,它需要专门的实现,并且训练起来也有一定的工作量,而BERT-whitening的实现很简单,就一个线性变换,可以轻松套到任意的句向量模型中。(当然,非要辩的话,也可以说whitening是用线性变换实现的flow模型…)

 

注:这里顺便补充一句,BERT-flow论文里边说的last2avg,本来含义是最后两层输出的平均向量,但它的代码实际上是“第一层+最后一层”输出的平均向量,相关讨论参考[5]。

 

所以最终结论就是

 

所以,目前的结果就是:笔者的若干实验表明,通过简单的线性变换(BERT-whitening)操作,效果基本上能媲美BERT-flow模型,这表明往句向量模型里边引入flow模型可能并非那幺关键,它对分布的校正可能仅仅是浅层的,而通过线性变换直接校正句向量的协方差矩阵就能达到相近的效果。

 

[1]On the Sentence Embeddings from Pre-trained Language Models:(https://arxiv.org/abs/2011.05864)

 

[2]《细水长flow之NICE:流模型的基本概念与实现》:(https://kexue.fm/archives/5776)

 

[3]《细水长flow之RealNVP与Glow:流模型的传承与升华》:(https://kexue.fm/archives/5807)

 

[4]《细水长flow之可逆ResNet:极致的暴力美学》:(https://kexue.fm/archives/6482)

 

[5] https://github.com/bohanli/BERT-flow/issues/11

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注