Press "Enter" to skip to content

深入解读首个万亿级语言模型 Switch Transformer

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

本文深入解读了由 Google Brain 设计的名叫「Switch Transformer」的简化稀疏架构,可以将语言模型的参数量扩展至 1.6 万亿(GPT-3 是 1750 亿)。在计算资源相同的情况下,Switch Transformer 的训练速度可以达到 T5 模型的 4-7 倍。本文将从「为什幺选择MoE」、「如何设计高效的网络结构」、「训练技巧」和「一些重要的讨论」4个方面进行解读。

 

Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity

https://arxiv.org/pdf/2101.03961.pdf ​ arxiv.org

Why is MoE

 

在现有的深度神经网络方法中,针对模型的输入,所有的参数都会参与计算。在预训练模型参数量变的越来越大的情况下,计算资源的需求也会变得巨大。而Mixture of Experts(MoE)改变了这种情况。MoE可以为不同的输入选择性地激活模型中的一部分参数参与计算,这样在增大模型参数量的同时,计算量可以维持相对不变。

 

一种典型的MoE框架由一个门控子网络(Gating network)和多个专家子网络(Expert odel)构成,门控网络为输入x计算各个专家网络输出所占的比重,然后采取加权求和的方式得到最终的输出。

另有使用门控子网络对输入进行路由选择,即根据各个专家网络对应的门控值(gating value),选择出Top-K个专家子网络参与当前输入的实际计算,这样可以显着降低计算量。

 

本文就基于MoE的思想,将Transformer中的前馈全连接子层(Feed-Forward Network,FFN)视为Expert,使用多个FFN代替原来单一的FFN,并且使用了最简单的路由选择策略,将K设置为1,即不同的输入只会选择一个FFN进行计算。这样相比较于原来的结构,计算量只增加了路由选择的计算量,而新增的计算量相比较于原来的计算量而言可以忽略,这样就实现了增大模型参数的同时维持相对不变的计算量。

 

How Efficient

 

1. 模型结构——简化稀疏路由

 

混合专家模型(MoE):x表示每一个token的输入,则通过路由权重计算得到的logits为h(x),门控值(gated value)通过所有专家的logits使用softmax计算得到。输出y来自不同的专家的加权和,权重即路由门控值得到。

Switch Routing:

 

本文中使用了一个创新的路由策略,即每次只发给一个专家,这样可以简化路由的计算量的同时保证模型的性能。这样做的优势:

 

(1)路由计算量减少,只有一个expert激活;

 

(2)expert中的batch_size(专家容量)至少减半;

 

(3)简化路由的实现,减少传统MOE方法中通信的代价。

2. 模型结构——高效稀疏路由

 

分布式Switch实现:

 

(1)问题:模型编译是静态确定的,计算是动态的,如何确定每一个expert维度;

 

(2)方法:使用capacity factor扩展,太多的容量导致计算和内存消耗增加,太小的容量导致token被放弃计算传到下一层,结论是经验性的根据“model quality and speed”的权衡来选择较低比例“dropped tokens”。

 

Load Balancing Loss:

 

为了促使每个expert都可以拿到近似均匀分布的样本,这里引入负载均衡损失。当 的时候损失是最小的。

实验:

 

本文采用的实验是T5模型的基础上应用switch transformer和MOE,下面是一些结论:

 

(1)Switch Transformer比MoE和Dense模型都要好;

 

(2)Switch Transformer在capacity比较小的时候效果更好;

 

(3)Switch Transformer比MoE要少一点计算量,如果让它们计算量相等的话,那幺Switch Transformer还可以有更多提升(Switch-base-Expand)。

 

3. 为什幺高效——数据、模型及专家并行

 

本章属于高效执行这小部中最重要的部分,是关于并行部分的解释,这里补充一下关于各种并行的方法的解释。标准的数据并行的定义是一个batch的数据在不同的device上并行处理,这时每一个device上都保存了模型的一份完整拷贝,前向计算完进行梯度汇总和更新。模型并行表示模型不同的参数(层、组件)分配到不同的device上,处理一个batch的数据。

 

本文中下图中上面一行整体表示权重的分配方式,下面一行表示数据的分配方式,一种颜色表示一个矩阵(a unique weight matrix)。其中每一个方格表示一个core。

 

数据并行:

 

第一列表示数据并行,模型权重拷贝16份,16个同一种颜色矩阵分别表示一个完整的模型,数据侧则是一个完整的矩阵,这里可以理解为16个模型计算完成后由于存在梯度汇总再更新的步骤,所以整体更新的是一个batch,因此这里数据侧是一个唯一的矩阵。简单来说就是模型复制,数据并行。

模型并行:

 

模型并行部分从模型侧看出来,16个cores维护的是一个整体的模型,但是每一个core只分配到其中非常高通信代价,同一个batch在所有的core上计算,由于1个core中分布了不同的模型权重,每次计算完都需要和其他的core进行通信。

 

专家并行:

 

原本路由机制只会分配给当前core中的不同的expert,现在则有可能会分配到其他的core下的expert,范围更大。

 

实验结论:

 

(1)switch-C表示和T5有相同的ppl下速度是T5的4倍,并且随着训练进行还会继续扩大优势;

 

(2)switch-xxl是和T5有相同的FLOPs/seq下,效果好于T5;

 

(3)从最后两列看出,switch的两个模型的样本利用率高于T5,T5在500k steps下才能达到switch效果。

 

Training Tricks

 

1. 大型稀疏模型中使用随机精度

 

Switch Transformer参数量达到了一万多亿,为了保证计算效率,降低到每次过只过一个expert,这样相当于关闭了模型某些部分的硬切换机制,就引入了稀疏性,而稀疏性会导致模型训练不稳定,换句话说,就是稀疏模型可能会对随机种子比较敏感。当使用bfloat16精度的时候,模型的不稳定性会影响训练性能。这个bfloat16是谷歌的一个格式,全称叫Google Brain Floating Point。MoE Transformer中使用了float32精度来训练,这样会带来一定的通信成本。所以这里作者使用了selectively casting,只在模型的local部分使用float32的精度,这样可以实现稳定性。

 

具体来说,在router的输入端使用float32精度,并且只在router函数中使用,也就是说在当前设备的局部进行计算。在函数结束进行广播通信的时候,使用bfloat16精度,把这个API暴露给网络其余部分,因此float32的值永远不会离开本地设备,而且设备间通信仍然保持低精度。这样既可以从float32精度中获得收益,也不会带来额外的通信成本。下面这个表说明了这种方法的好处,可以看到,作者提出的这种方法可以保证和bfloat16一样的训练速度,但是获得了媲美float32精度训练的稳定性。

2. 使用更小的参数初始化来保证稳定性

 

其motivation还是为了保证模型的稳定性。作者观察到,在Switch Transformer中,合适的初始化方法也是成功训练的一个重要因素。他们的做法是,用均值μ=0,标准差σ=√s / n的截断正态分布来对权重矩阵进行初始化,其中s是放缩超参,n是权重向量输入的数量。这里作为减小路由数量不稳定性的一个补救,作者把transformer默认的初始化s从1.0缩小10倍。他们发现这样的话既可以提高质量,又可以减少实验中训练不稳定的可能性。下面的表三测量了训练初期,模型质量的改善还有方差的降低。作者发现,用这个negative log perp度量的平均模型质量得到了一个比较大的改善,而且运行多次的方差也减少了很多,从0.68到0.01。他们使用这个方法,把200多兆参数量的baseline稳定地训练成了超过一万亿个参数的超大模型。

3. 对Switch Tranformer这种大型稀疏模型做正则

 

因为这篇论文是在一个大的语料库上做预训练,然后在比较小的下游任务做微调,一个比较自然的问题就是过拟合问题,因为许多微调任务中比较缺乏数据。Switch Transformer比一些dense model的参数要多很多,这样可能会导致在这种比较小的下游任务上更容易过拟合。之前有一些工作使用dropout来防止过拟合。这篇文章是提出了一种比较简单的在微调时候减轻过拟合问题的方法,就是增加expert内部的dropout,他们叫expert dropout。在微调的时候,只在每个expert层的过渡的feed-forward层计算的时候大幅增加dropout的概率。下面的表四做了这部分的实验,我们可以发现,只是简单对所有层都增加dropout之后,会得到一个比较差的结果,当给非expert层设置一个比较小的dropout,也就是0.1,给expert层设置一个比较大的dropout rate会在四个下游任务上得到一定性能的提升。

4. No-Token-Left-Behind机制

 

因为TPU是有限制的,张量的shape必须是静态的,所以每个expert处理token表示的能力是有限而且固定的,但是模型在运行时是动态路由token的,通过softmax概率来进行路由,这样可能会导致在expert上的不均匀分布。如果发送给expert的token数小于expert的实际容量,这样是对硬件的低效使用。所以作者用了一个方法解决这个问题。这里作者构建了No-Token-Left-Behind机制,它重点在于反复地把第一次路由的所有溢出的token重新进行路由,下图是这个机制的说明。可以看到,第一轮路由溢出的token,在第二轮被重新路由到了概率第二高的expert中,这样正好达到了饱和。如果第二轮还有溢出,就还会继续迭代下去。这里需要注意的是,作者在实验中发现,这种trick虽然保证了资源的利用率,但是并没有带来什幺性能上的提升。这里他们猜测,一旦网络学习到了token和expert之间的联系,如果使用这种机制,向第二甚至第三的expert发送了token,相当于对token和expert的联系进行了更改,这样可能也会影响性能。

Some Discussions

 

Q1: Switch Transformer效果更好,是否是因为更大的参数量?

 

A1: 是的,并且是设计成这样的。大型模型已被广泛显示出具有更好的性能 [1]。我们的模型在使用相同的计算资源的情况下,效率更高,速度更快。

 

Q2: 我没有supercomputer, 这篇工作对我还有用吗?

 

A2: 尽管这项工作集中在非常大的模型上。但是只有两个exports就能够提升性能,并且可轻松地适用常用的GPU或TPU的内存限制。因此,这项技术在小规模环境中仍然有用。

Q3: Sparse Model是否在pareto曲线上优于Dense Model?

 

A3: 是的。实验表明,在固定的计算量和时间上,Sparse Model的性能都优于Dense Model。

Q4: 我无法部署一个万亿参数的模型,能够缩小使用这些模型吗?

 

A4: 无法保证缩小后的模型的质量。但是以10到100倍的压缩率将Sparse Model蒸馏为Dense Model,可以获得Export Model 30%的质量增益。

Q5: 为什幺使用Switch Transformer来代替模型并行方式的Dense Model?

 

A5: 从时间的角度看,Switch Transformer要比Dense Model高效得多。另外,这两者并不冲突,可以在Switch Transformer中使用模型并行来增加每个token的Flops,但这会导致传统模型并行性的降低。

 

Q6: 为什幺Sparse Model尚未广泛使用?

 

A6: 尝试Sparse Model的动机受到了Dense Model的巨大成功的阻碍(其成功是由与深度学习硬件的共同适应驱动的 [2])。此外,Sparse Model存在以下几方面的阻碍:(1)模型复杂性;(2)训练困难;(3)通信成本。Switch Transformer在缓解这些问题上取得了巨大进步。

 

参考文献

 

[1] Kaplan et al. Scaling laws for neural language models. arXiv preprint arXiv:2001.08361, 2020.

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注