Press "Enter" to skip to content

Facebook推出首个无需依赖英语即可翻译100种语言的AI模型

公众号/AI前线 作者 | Angela Fan 译者 | 平川 策划 | 陈思

 

Facebook AI 将推出 M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在 100 种语言中的任意两种之间进行翻译,而无需依赖英语数据。M2M-100 总共训练了 2200 个语言方向,比以前最好的以英语为中心的多语言模型多了 10 倍。部署 M2M-100 可以为数十亿人提高翻译质量,特别是那些使用低资源语言的人。

 

 

本文最初发布于 Facebook 官网,由 InfoQ 中文站翻译并分享。

 

Facebook AI 将推出 M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在 100 种语言中的任意两种之间进行翻译,而无需依赖英语数据。它是开源 的。

 

 

在翻译时,比如中译法,大多数以英语为中心的多语言模型都进行中译英和英译法两种训练,因为英语训练数据使用最广泛。我们的模型直接在中译法数据上进行训练,以便更好地保留意义。在评价机器翻译时广泛使用的 BLEU 度量标准下,它比以英语为中心的系统高出 10 分。

 

M2M-100 总共训练了 2200 个语言方向,比以前最好的以英语为中心的多语言模型多了 10 倍。部署 M2M-100 可以为数十亿人提供更高质量的翻译,特别是那些使用低资源语言的人。

 

这一里程碑式成就得益于 FacebookAI 多年来在机器翻译领域开展的基础性工作。在本文中,我们将详细分享我们如何为 100 种语言构建更多样化的 MMT 训练数据集和模型。我们还发布了模型、训练和评估设置,以帮助其他研究人员再现和进一步增强多语言模型。

 

通过机器翻译(MT)打破语言障碍,是将人们联系在一起、提供 关于 COVID-19 的权威信息、让人们 远离有害内容 的最重要的方式之一。如今,得益于我们在 低资源语言机器翻译 方面以及 翻译质量评估 方面的 最新进展,我们平均每天在 Facebook 新闻订阅中处理 200 亿次翻译。

 

传统的 MT 系统需要为每种语言和每种任务构建单独的人工智能模型,但在 Facebook,这种方法无法有效地扩展。在 Facebook 上,人们在数十亿个帖子中发布的内容使用了超过 160 种语言。增强型多语言系统可以同时处理多种语言,但依赖英语数据来弥补源语言和目标语言之间的差距,因而在准确性上有所损失。我们需要一种多语言机器翻译(MMT)模式,可以翻译任何语言,以便更好地服务于我们的社区,在这个社区中,近三分之二的人使用英语以外的语言。

 

经过 Facebook 多年 MT 研究的积累,我们很高兴地宣布了一个重要的里程碑:第一个可以在任何方向上直接翻译 100*100 种语言的单一大型 MMT 模型,而且不依赖仅以英语为中心的数据。我们的单一多语言模型的性能和传统的双语模型一样好,并且 BLEU 得分比以英语为中心的多语言模型提高了 10 分。

 

通过使用新的挖掘策略来创建翻译数据,我们构建了第一个真正的“多对多”数据集,包含 100 种语言的 75 亿个句子。我们使用多种扩展技术构建了一个具有 150 亿个参数的通用模型,它从相关语言中获取信息,反映出更多样化的语言和词法。我们正在 开源 这项工作。(视频)

 

从数以亿计的句子中挖掘成千上万的语言方向

 

构建多对多 MMT 模型的最大障碍之一是为任意不涉及英语的翻译方向管理大量高质量的句对(也称为平行句)。从中文到英文、从英文到法文的翻译要比从法文到中文容易得多。更重要的是,训练所需的数据量会随着我们所支持的语言数量的增加而呈平方增长。例如,如果我们每个方向需要 10M 对句子,那幺我们需要挖掘 10 种语言的 1B 对句子,100 种语言就是 100B 对句子。

 

我们接受了这个艰巨的挑战,即构建迄今为止最多样化的多对多 MMT 数据集:跨 100 种语言的 75 亿对句子。这可以通过组合多年来一直在发展的、互补的数据挖掘资源来实现,包括 ccAligned、ccMatrix 和 LASER。作为这项工作的一部分,我们创建了一个新的 LASER 2.0,并改进了 fastText 语言识别,它提高了挖掘质量,并加入了开源训练和评估脚本。我们所有的数据挖掘资源都利用了公开可用的数据,并且都是开源的。

 

近年来,Facebook AI 在 MT 领域开展了许多涉及突破性模型、数据挖掘资源和优化技术的开创性工作,这次新推出的多对多多语言模型就是这些工作的一个巅峰。这个 时间表 重点介绍了一些值得注意的成就。此外,我们通过挖掘 ccNET 创建了大量的训练数据集,ccNET 建立在 fastText(我们在处理单词表示方面所做的开创性工作)、CCMatrix LASER 库(将句子嵌入到多语言嵌入空间)和 CCAligned(基于 URL 匹配对齐文档的方法)之上。作为这项工作的一部分,我们创建了 LASER 2.0,改进了以前的结果。

 

尽管如此,即使使用像 LASER 2.0 这样的高级底层技术,为 100 种不同语言的任意组合(或 4450 种可能的语言对)挖掘大规模训练数据也需要高度密集的计算。为了使这种规模的挖掘更易于管理,我们首先关注翻译需求最多的语言。因此,我们以数据质量最高和数据量最大的方向作为优先挖掘方向。我们避开了统计上很少需要翻译的方向,比如冰岛语到尼泊尔语或僧伽罗语到爪哇语。

 

接下来,我们引入了一种新的桥梁挖掘策略,在该策略中,我们根据语言类别、地理和文化相似性将语言分组为 14 个语言组。生活在同语系国家的人们往往更经常交流,并将受益于高质量的翻译。例如,一个语言组包括在印度使用的语言,如孟加拉语、印地语、马拉地语、尼泊尔语、泰米尔语和乌尔都语。我们系统地挖掘每一组中所有可能的语言对。

 

为了连接不同组的语言,我们确定了少量的桥梁语言,通常是每个语言组中的一到三种主要语言。在上面的例子中,印地语、孟加拉语和泰米尔语是印度雅利安语的桥梁语言。然后,我们为这些桥梁语言的所有可能组合挖掘并行训练数据。使用这种技术,我们的训练数据集最终包含 75 亿个平行句的数据,对应 2200 个方向。由于挖掘的数据可以用于训练给定语言对的两个方向(例如,en->fr 和 fr->en),我们的挖掘策略可以帮助我们有效地稀疏挖掘,以便最好地在一个模型中覆盖所有的 100×100 个方向(总共 9900)。

 

为了补充低资源、低翻译质量的语言的并行数据,我们采用了流行的反向翻译方法,这种方法帮助我们在 2018 年和 2019 年的 WMT 国际机器翻译比赛中获得了第一名。例如,如果我们的目标是训练一个中法翻译模型,我们首先要训练一个法中翻译模型,然后把所有的法语单语数据翻译成合成的、反向翻译的中文。我们发现,当将 数亿个 单语句子翻译成并行数据集时,这种方法在规模很大时特别有效。在我们的研究环境中,我们使用反向翻译来补充我们已经挖掘的训练方向,将合成的反向翻译数据加入到挖掘的并行数据中。我们使用反向翻译来为以前的无监督方向创建数据。

 

总的来说,在 100 个反向翻译方向上,桥梁策略和反向翻译数据相结合比单独使用挖掘数据的训练 BLEU 分值平均提高了 1.7。有了更健壮、高效、高质量的训练集,我们就有了构建和扩展多对多模型的坚实基础。

 

我们还在零样本设置下发现了令人印象深刻的结果,这种情况下的语言对没有训练数据。例如,如果一个模型在法语 – 英语数据集和德语 – 瑞典语数据集上进行了训练,我们就可以在法语和瑞典语之间进行零样本翻译。在必须实现非英语方向之间的零样本翻译的情况下,我们的多对多模型比以英语为中心的多语言模型要好得多。

 

将 MMT 模型扩展到 150 亿个参数,并且速度快、质量高

 

多语言翻译中的一个挑战是,单一模型必须从许多不同的语言和文本中捕获信息。为了解决这个问题,我们看到,扩展模型容量和添加特定于语言的参数有明显的好处。扩展模型大小对于高资源语言对特别有帮助,因为它们有最多的数据可以用来训练额外的模型容量。最终,我们看到,当模型大小密集扩展到 120 亿个参数时,在所有语言方向上的 BLEU 分值平均提高了 1.2,此后进一步扩展,效果就开始下降了。密集扩展和特定于语言的稀疏参数(32 亿)相组合使我们能够创建一个拥有 150 亿参数的更好的模型。

 

 

我们将我们的模型与双语基线和以英语为中心的多语言模型进行比较。我们从 12 亿参数基线开始,其中包含 24 个编码器层和 24 个解码器层,将以英语为中心的模型与我们的 M2M-100 模型进行比较。接下来,如果我们将 120 亿个参数与 12 亿个参数进行比较,我们看到 BLEU 分值提高了 1.2。

 

为了增加模型的大小,我们增加了 Transformer 网络的层数以及每一层的宽度。我们发现,大型模型收敛速度快,训练时的数据效率高。值得注意的是,这个多对多系统是第一个利用 Fairscale 的系统,这个新的 PyTorch 库是专门为支持管道和张量并行而设计的。我们构建了这个通用的基础设施,通过将模型并行化到 Fairscale,以适应无法在单个 GPU 上运行的大型模型。为了训练大规模模型,我们以 ZeRO 优化器、层内模型并行 和 管道模型并行 为基础进行了构建。

 

但仅仅将模型扩展到数十亿个参数是不够的。为了未来能够在生产中应用这种模型,我们需要通过高速训练来尽可能高效地扩展模型。例如,为了生成翻译,现有的许多工作都使用多模型集成,即对多个模型进行训练,并将其应用于同一源句。为了降低训练多个模型的复杂性和所需的计算量,我们研究了多源自集成技术,它可以将同一源句翻译成多种语言以提高翻译质量。此外,我们的工作是以 LayerDrop 和 深度自适应 为基础进行构建,共同训练一个具有公共主干和不同语言特定参数集的模型。这种方法非常适合多对多模型,因为它提供了一种自然的方法,按语言对或语言族划分模型的各个部分。通过将模型容量的密集扩展与特定于语言的参数(总共 3B)相结合,我们提供了大型模型的好处,以及学习不同语言专用层的能力。

 

为所有人构建多语言模型之路

 

多年来,人工智能研究人员一直致力于构建一个单一的通用模型,该模型可以理解不同任务中的所有语言。一个支持所有语言、方言和模式的单一模型将帮助我们更好地为更多人服务,保持翻译及时更新,为数十亿人创造同等的新体验。这项工作使我们距离这个目标更近了。

 

作为这项工作的一部分,我们已经在预训练语言模型、调优和自监督技术方面看到了令人难以置信的快速进步。这种公共研究可以进一步改善我们系统使用未标记数据理解低资源语言文本的方式。例如,XLM-R 是我们强大的多语言模型,它可以从一种语言的数据中学习,然后在 100 种语言中执行一项任务。mBART 是为多语言 BART 任务预训练完整模型的最早的方法之一。最近,我们新开发的自监督方法 CRISS,使用来自许多不同语言的未标记数据来挖掘不同语言之间的并行句,并以迭代的方式训练新的、更好的多语言模型。

 

我们将继续通过整合这些前沿研究来改进我们的模型,认真探索部署 MT 系统的方法,并创建更专业的计算架构来将其投入生产应用。

 

查看英文原文:

 

Introducing the First AI Model That Translates 100 Languages Without Relying on English

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注