Press "Enter" to skip to content

NAACL 2022 | 字节和加州大学提出ConST模型,探讨对比学习如何助力语音翻译?

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

全球化下应用最广泛的 AI 技术是什幺?机器翻译必然是其中之一。除了纯文本信息的传播,随着流媒体越来越普及,语音翻译有着越来越广泛的应用:大到国际会议的翻译,小到电影电视等视频翻译的字幕。

 

这里 给大家介绍在字节跳动 AI-Lab 与 UCSB 发表在 NAACL 2022 的长文:Cross-modal Contrastive Learning for Speech Translation[7]。本文提出 ConST 模型,其在语音翻译上获得了当前最好的效果。此外,本文探讨了如何将跨模态对比学习更好利用到语音翻译上。

 

 

论文地址:

 

https://arxiv.org/abs/2205.02444

 

代码地址:

 

https://github.com/ReneeYe/ConST

 

:bulb:想要了解更多本篇论文的详情? 请关注本周二晚20点由中科院计算技术研究所在读博士生 房庆凯、字节跳动AI Lab算法工程师 叶蓉带来的Talk《更好的语音表示,更强的语音翻译》! Talk预约请见今日二条推送~

 

 

 

图:Netflix推出的韩剧《鱿鱼游戏》(Squid Game) 翻译成 31 种语言“火”遍全球90个国家,“椪糖挑战”也随之在TikTok上就掀起热潮。

 

语音翻译甚至出现在当下火热的“VR/AR技术”中,「火山引擎」和「亮亮视野」在2021年共同打造了AR眼镜,支持翻译功能,服务于会议场景,也可以帮助许多听残人士,为他们的世界加上了字幕,令人着实体验到了科技给生活带来的便利。

 

 

 

今年,Google I/O 大会上谷歌也展示了AR眼镜进行语音翻译成文字的原型,惊艳到了不少科技发烧友。

 

 

图为谷歌CEO桑德尔在I/O大会上展示AR眼镜项目

 

以上的这些应用,其实都离不开语音翻译技术的加持。如何更方便快速地将语音翻译系统部署到这些端上?这是近年来业界和学术界最关心的课题之一。

 

 

一、端到端语音翻译

 

语音翻译的传统方法是串联起语音识别(automatic speech recognition, ASR)系统和机器翻译(machine translation, MT)系统,这样的方法被称为语音识别-机器翻译级联系统 (cascaded system)。另一方面,因为部署方便,端到端语音翻译 (end-to-end speech translation) 新技术最近获得了极大的关注。端到端语音翻译无需得到语音的转写内容,直接将语音转化为目标端的语言,这显然更为直接简洁。然而,标注好的“语音-转写-翻译”数据远远不如文本翻译那幺丰富,这成了端到端语音翻译模型训练的一大瓶颈。

 

多任务累进学习

 

如何克服这瓶颈?知识蒸馏[1]、预训练[2][3]、多任务学习[4][5]… … 纷纷被验证可以缓解数据缺少带来的问题,提升翻译质量。其中多任务学习确实是一种简单可行的解决之道,实践证明同时训练语音翻译 (ST)、语音识别 (ASR) 、机器翻译 (MT) 确实有更好的泛化能力。

 

其中 XSTNet[4]是一个比较典型的可以支持多任务累进学习的结构。在输入端,它既可以接受语音输入,又可以接受文本输入。对于语音输入,利用 wav2vec2 [6] 和几层卷积层提取语音特征;模型中的 transformer encoder 和 decoder 是“语音-到-文本”和“文本-到-文本”共享的。训练方面,采用“多任务累进学习”的意思是,模型(1)先用“文本-到-文本”数据对Transformer Encoder和Decoder进行预训练,(2)然后再多任务共同优化语音翻译、文本翻译、语音识别任务。

 

 

多任务累进学习框架 XSTNet[4] 的图示

 

模态鸿沟——多任务累进学习无法解决的痛

 

虽然多任务学习模型获得了不错的效果,可是当我们从表示角度,观察重语音和文本两个不同模态的表示时,我们发现两者依旧存在鸿沟,如下图中 (a) current models 所示,现在的多任务学习模型中,同一句话,同一个意思,语音和文本的表示依旧有较大差距,而我们期望的是,对于同一句话,比如语音的 “it’s a nice day!” 和文本的 “it’s a nice day!” 的表示应该是相近的(如 (b) Expected 所示)。

 

 

 

左图:多任务学习框架下语音和文本两者表示之间依旧存在差距;右图:我们所期望的两个模态表示:相同意思的语音和文本应该有相近的表示。

 

所以怎样才能缩小两个模态的表示的鸿沟,从而提升语音翻译的表现呢?

 

二、ConST:利用对比学习解决模态鸿沟

 

ConST 模型依旧采取了可接受双头输入的结构,对于语音有特有的 S-Enc 学习表征,transformer encoder decoder模块是语音和文本共享的。ConST的模型结构如下图所示。

 

 

ConST模型架构和训练损失函数——多任务损失和对比损失的加权和

 

训练方面,包含了多项损失函数:

 

语音翻译、语音识别、文本机器翻译三大任务的交叉熵损失函数: , ,

 

 

此外,为了拉进相同句子的语音和文本的表示,额外引入了 对比学习损失项  (contrastive loss)

 

, 对应语音和文本的表示,对于语音为经过 S-Enc 得到的隐变量 (hidden states) 的平均向量,对于文本,则为 embedding 的平均向量。

 

 

给定语音,对比学习的正例为其所对应文本,而负例则为同一 batch 中的其他句子的文本。

 

为“温度”超参数,控制着模型区分正负例的难度,温度越低,区分正负例的难度越小。实验中,我们设置为0.02。

 

可选模块:挖掘更多困难样例 / mining more hard examples

 

此外文章还提出了四种可选的挖掘困难样例的办法,来帮助更好的拉近模态距离,从而提升效果。这四种方法从输入层 (input-level) 和表示层 (representation-level) 对原始正/负例进行扩展。包括:

 

 

span-masked augmentation:  随机 mask 原始的一小段语音输入 (0.23s)

 

word repetition:  将句子中的 token 随机重复几次。

 

cut-off:  对于语音表示随机 mask sequence 维度(对应 Sequence Cut-off)或者 feature 维度(对应feature Cut-off)。

 

 

 

 

挖掘更多困难样例的几种操作的图示

 

三、ConST在语音翻译上的表现和分析

 

8大语项获得显着翻译效果

 

本文在 MuST-C 数据集的 8 个语向上进行了实验,并且尝试了引入额外 MT 数据的场景 (w/ external MT data),如下表所示,与基线模型 W-Transf. 和 XSTNet 相比,ConST 在语音翻译质量上取得了更进一步的提升,在大多语向上达到了 SOTA。

 

 

有关对比学习的更多细节

 

文章还对对比学习做了更多分析,包括:

 

 

对可选的困难样例挖掘模块的分析(具体可以参见paper,此处略)

 

利用对比学习拉近模态距离是否优于其他方式?

 

在哪一层对比学习?

 

 

利用对比学习拉进模态距离是否优于其他方式?

 

除了可以用对比学习的方式拉近两个模态的“距离”之外,实际上还可以使用其他方式训练损失函数,比如:

 

 

CTC loss:  建模语音文本的对齐关系,常见于很多语音-到-文本的任务中。

 

L2 loss:  直接建模两者表示的欧式距离差距,这也常见于各种知识蒸馏 (knowledge distillation)的场景中。

 

 

 

我们发现,虽然这三种方法,都比不加更好,但对比学习的方法,比CTC损失和L2损失更优。

 

对比损失加在哪一层?

 

观察模型结构,我们不难发现对比学习损失函数不仅仅可以在语音表示和文本词嵌入这样的“底层表征” (low-level repr.) 进行,其实也可以在过了 transformer encoder 之后,我们再用对比损失将两者的“高层表征” (high-level repr.),类似的结构可以类比[8]。那幺哪种表征更值得用对比学习拉近距离呢?

 

根据文中的实验,我们发现对底层表征进行对比学习,对最后的翻译性能提升更大。

 

为何会有这种现象?也即对比学习为何奏效?文中则进行了更进一步的分析。

 

对比学习为何奏效?

 

表示空间可视化

 

文章首先对语音和文本的底层表示进行了可视化分析:先利用 T-SNE 进行降维,然后再画 kernel density estimation 分布图。如果语音和文本两者的表示越相近,那 KDE 图的等高线应该越接近重合的状态。

 

 

从图中我们发现,不优化对比学习、只有多任务学习的情况下,语音和文本的表示自然而然分成了两个类(对应左图),这也印证了我们在引入部分说的“模态鸿沟”问题。而仅仅是通过简单的对比学习损失函数,两个模态的表示就明显更好地融合在一起,更为相近。

 

利用语音是否可以检索语义相近的文本?

 

除了定性的观察表征的可视化图外,文章还展示了一个定量实验:根据语音表征找 cosine 距离最相似的文本。和前文所提到的一样,文中用了底层表示和高层表示进行召回实验。实验发现在利用底层表示进行召回时,加上对比学习,能让召回准确率提升79.2%之多。另一方面,当我们使用高层表示的时候,即使是没有对比学习,召回准确率就已经能高达94.7%了,也就是说对于高层表示,即使没有其他额外监督损失,仅仅通过多任务学习,两者已经很近了,此时再利用对比学习拉近高层表示的距离,则收益甚小。这也和上文中的“利用底层表示进行对比学习效果更好”相符合。

 

 

ConST的生成效果

 

这里我们以英-德翻译为例,看看ConST效果

 

自带端到端翻译的优点:避免错误传播

 

音频内容为: Lights, sounds, solar panels, motors. Everything should be accessible.

 

级联模型输出:Licht klingt Solarpaneele, Motoren; alles sollte zugänglich sein. (:x:  klingt 为动词,正确的应该是Geräusche,声音,作名词用。传统级联模型因为不知道正确的断句而导致了此错误。 )

 

ConST输出:Licht, Geräusche, Solarpanele, Motoren, alles sollte zugänglich sein. (:white_check_mark:)

 

比多任务累进模型XSTNet在细节上翻译更准确

 

音频内容为: Eight years ago, when I was at the Media Lab, I started exploring this idea of how to put the power of engineers in the hands of artists and designers.

 

我们注意这里的一个表达 “ I started exploring this idea of … ”

 

XSTNet输出:Vor acht Jahren, als ich im Media Lab war, begann ich zu erforschen , wie man die … ( 遗漏了the idea的翻译 )

 

ConST输出:Vor acht Jahren, als ich im Media Lab war, begann ich, diese Idee zu erforschen , wie man die … (:white_check_mark:)

 

四、想要体验端到端语音翻译?

 

ConST on Huggingface Space

 

传送门: https://huggingface.co/spaces/ReneeYe/ConST-speech2text-translator

 

 

「端到端语音翻译」在「火山翻译」微信小程序

 

火山翻译也在小程序上线了「中-英」端到端「音频翻译」技术给大家体验。和普通语音翻译相比,平均翻译速度可以提升70%,带来更快速高质量的翻译体验。

 

 

五、总结

 

本文主要介绍了 NAACL 2022 上的一篇语音翻译的工作 ConST,其训练上继续沿用了多任务学习的想法,但对于多任务学习中无法解决的语音和文本模态鸿沟问题,则是利用对比学习来结局。实验和分析表明该方法在 MuST-C 数据集上的8个语向上均取得了不错的效果,也验证了对比学习确实可以解决模态鸿沟问题。更重要的是,文章就“对比学习如何在语音翻译任务中更好使用”给出了分析和解释。

 

传送门

 

Paper:  https://arxiv.org/abs/2205.02444

 

Code:  https://github.com/ReneeYe/ConST

 

Huggingface space:  https://huggingface.co/spaces/ReneeYe/ConST-speech2text-translator

 

火山翻译网页版: http://translate.volcengine.cn/

 

参考文献

 

[1] Yuchen Liu, Hao Xiong, Zhongjun He, Jiajun Zhang, Hua Wu, Haifeng Wang, and Chengqing Zong. 2019. End-to-end speech translation with knowledge distillation.

 

[2] Chengyi Wang, Yu Wu, Shujie Liu, Ming Zhou, and Zhenglu Yang. 2020. Curriculum Pre-training for End-to-End Speech Translation. In Proceedings of ACL 2020.

 

[3] Qianqian Dong, Rong Ye, Mingxuan Wang, Hao Zhou, Shuang Xu, Bo Xu, Lei Li. 2021. Listen, Understand and Translate: Triple Supervision Decouples End-to-end Speech-to-text Translation. In Proceedings of AAAI 2021.

 

[4] Rong Ye, Mingxuan Wang, and Lei Li. 2021. End-to-end speech translation via cross-modal progressive training. In Proceedings of InterSpeech 2021.

 

[5] Yun Tang, Juan Pino, Xian Li, Changhan Wang, and Dmitriy Genzel. 2021. Improving speech translation by understanding and learning from the auxiliary text translation task. In Proceedings of ACL 2021.

 

[6] Alexei Baevski, Henry Zhou, Abdelrahman Mohamed, Michael Auli. 2021. wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations. In Proceedings of NeurIPS 2021.

 

[7] Rong Ye, Mingxuan Wang, Lei Li. 2022. Cross-modal Contrastive Learning for Speech Translation. In Proceedings of NAACL 2022.

 

[8] Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li. 2021. Learning for Many-to-many Multilingual Neural Machine Translation. In Proceedings of ACL 2021.

 

//

 

本文作者

 

 

叶蓉

 

字节跳动·AI Lab 算法工程师

 

字节跳动AI Lab算法工程师,硕士毕业于复旦大学。她主要研究方向为语音翻译和文本生成,并以第一作者/主要作者在ICLR/AAAI/InterSpeech等发表论文。

 

作者:叶蓉

 

Illustration  b y Marina Mogulska from icon s8

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。