Press "Enter" to skip to content

槽位识别与纠错在智能语音机器人中的实践

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

导读

 

在语音机器人中,经常需要槽位识别来提取用户回答中的关键信息,以便用于控制对话逻辑跳转和标识对话关键词等,我们通过命名实体识别(Named Entity Recognition,NER)技术来提取对话中的实体词(关键词),即语音机器人中的槽位词。

 

背景

 

由于语音识别(Automatic Speech Recognition,ASR)技术采用的是第三方通用的语音识别,而在不同的业务中往往涉及到很多专有的名词,因此经过ASR后的文本很容易发生拼音正确但词识别错误的情况,或因用户口音、噪音、通话质量等问题导致ASR后的文本容易存在拼音相似但词不正确的问题。

 

为了提升对话流畅度,需要对识别出的槽位词进行纠错。例如在新车外呼场景中,用户回复文本 “我想买那个别克7268”,NER识别出车品牌“别克”,“7268”,但其实用户想表达的是“别克GL8”,通过槽位纠错可以将车系“7268”纠正成“GL8”,可以更好识别用户意图, 通过纠错后线上车品牌车系两种槽位的准确率提升14.43%,召回率提升8.29%。后续本文将分别从槽位识别与纠错进行详细介绍。

 

槽位识别流程

 

语音机器人中很多话术需要提取用户回答中的关键信息,比如新车的话术,系统对咨询过二手车的用户进行回访,并从中了解用户是否想购买新车及具体想购买什幺车,需要识别出槽位:车品牌、车系、车型、新车/二手车, 便于对用户进一步的跟进 。

 

槽位识别是一种序列标注问题,序列标注就是对给定文本的每一个字符打上标签,然后提取出我们关心的关键词,通常采用实体识别[1,2]方式实现。标签的格式通常使用两种标准:IOB2 和 IOBES,标签含义如下 :

 

 

识别结果如下图所示,标签包含实体类型和位置两个部分,图中“大众”和“帕萨特”即为实体。

 

 

槽位识别的开发主要分两步:数据标注和模型训练。数据标注又分为如下几步: 1 )定义本体库,即定义需要识别的实体类型,比如 car_brand (车品牌);

 

2 )通过爬虫爬取带有实体词的文本数据作为候选标注数据;

 

3 )根据积累的实体关键词,利用 trie 树对文本中的实体词进行初始化;

 

4 )数据部署到 rasa-nlu( 一款开源的 NLP 工具 ) 进行标注,对初始化的实体词进行微调。

 

数据标注完成后,训练实体识别模型。我们采用IDCNN+CRF [3]和BiLSTM+CRF [4~6]两种模型进行实验。IDCNN通过空洞卷积增大模型的感受野,通常以多个卷积核为一个网络单元,再重复多次以学习上下文的特征;BiLSTM通过双向的LSTM学习到输入文本序列之间的依存关系;两种模型都是对输入文本进行特征提取,得到标签数量维度的特征向量,再作为 CRF 的特征,从而将标签之间的依存关系也学习到,最终得到每个字对应的实体标签, 合并操作后得到槽位词。

 

 

 

在12000条评测数据上,采用 BiLSTM+CRF模型,相比 IDCNN+CRF模型车品牌槽位的准确率和召回率分别提升5.22%、2.86%,车系槽位的准确率和召回率分别提升3.6%、3.39%,整体来看,采用BiLSTM+CRF槽位识别效果更好。以下结合几个例子具体分析。

 

 

BiLSTM对句子整体和当前位置的特征比较敏感, IDCNN 对周边局部比较敏感。比如,句子“在北京通盈。”, 关键词“北京”是地址也是车品牌,在本句话中表达的应该是一个地址, BiLSTM 会考虑“北京”的上下文特征,倾向于识别成地址槽位,而 IDCNN 更多地考虑局部特征,会将“北京”识别成车品牌,在车品牌“北京”后面的“通盈”识别成车系。

 

且在该场景下,通常用户回复较短,很容易语音识别错误严重, IDCNN 可能会抓住错误的局部特征导致槽位识别错误,比如,“欧元版的面包车”(用户真实表达是“货运版的面包车”),语音识别错误的词“元”本身是比亚迪的一个车系,IDCNN对局部特征较敏感识别出车系“元”。

 

比如,用户回复“啊,买卫星刘。”(用户真实表达是“免贵姓刘”), IDCNN 根据局部的“买”认为“卫星刘”是一个车系,而 BiLSTM 则会根据当前位置和句子整体特征将“刘”识别成一个姓。在ASR错误严重的句子, BiLSTM 不仅根据当前词还会根据句子整体特征来识别是哪种槽位,效果会略好。

 

槽位纠错流程

 

在语音机器人的话术中,识别出来的槽位用于话术流转,对于有些话术,识别出的槽位也会作为最后标签的一部分返回。

 

比如在车话术中,机器人对有购车意向的用户进行回访,需要识别出槽位:新车/二手车、车品牌、车系、姓氏等。机器人首先询问用户要买新车还是二手车,此时需要提取出新车/二手车的槽位用作话术跳转,如果识别到该槽位话术跳转到肯定分支继续询问用户意向车型,此时需要识别出车品牌、车系槽 位,便于对用户进一步跟进 。

 

由于采用第三方通用的ASR服务,针对很多特定场景中的专业名词识别,容易出现谐音词错误(同音不同字,仪器大众与一汽大众)和混淆音词错误(拼音相似词不正确,江宁福特与江铃福特)的问题。

 

比如用户回复文本:“我想买那个别克7268”,槽位模型识别出车系:7268,直接将此错误车系回传给业务方无法入库,识别出的车系没有价值,因此我们需要对识别出的槽位实体词进行纠错,得到正确的槽位词(GL8)才能入库。如下表列出部分错误类型。

 

 

基于我们已有的领域知识(车品牌库、车系库及车品牌与车系的映射关系),首先对领域知识中的词进行预处理(去空格、去特殊符号、车系需要去掉车品牌前缀、大小写统一等),并将预处理后的词与原始领域词进行映射( chr 海外–>丰田C-HR(海外 ) ),后续所有与领域知识词进行比较,都采用预处理后的领域知识词,最终再映射到原始的领域知识词输出。

 

例如,如果识别出的槽位词与相应领域知识中预处理过的词完全匹配,则返回映射的原始领域词,如果不匹配,那幺认为槽位词错误,需要纠正,如何纠正呢?

 

上述提到错误主 要是由谐音或混淆音导致的,基于我们已有的车品牌、车系库,可以通过拼音相似度算法进行匹配,得到相似度最大的实体词,即认为是正确的实体词(会通过阈值来控制)。

 

拼音相似度算法采用编辑距离,将待纠错词与车品牌、车系库中的所有词都转成拼音,待纠错词与库中的词计算编辑距离(基于拼音的每个字母计算编辑距离),即待纠错的拼音字符串需要改动多少次才能变成目标拼音字符串,同时考虑到字符串长度的影响,再除以两个字符串拼音的长度,编辑距离越小,匹配程度越高,最终通过阈值来控制是否采纳纠错结果。

 

具体地,在语音机器人新车相关话术中,对于用户回复买车的文本,首先会提取出本句话所有识别出的车品牌,对错误的车品牌进行纠正,这里车品牌纠错设置的阈值比较大,尽可能使纠正后的车品牌正确,这样才能基于正确的车品牌进行车系的纠错。

 

车品牌纠错后,再对所有的车系进行纠错,本句话有车品牌的会基于这些车品牌下的车系进行纠错,本句话没有车品牌的会根据待纠错词的拼音去车系库中找到带有该拼音的相关车系,再进行纠错。

 

以车系为例,图中的车系映射表包括文字的车系映射表(h6–>哈弗H6)和拼音的车系映射表(ei,qi,liu –> 哈弗 H6 ),如果 ASR 后的车系文字是正确的,或车系拼音是正确的,可以直接通过车系映射表得到完整的车系名称。

 

车系纠错时,如果本句话有车品牌,则可以直接获取该车品牌下的所有车系进行纠错;如果本句话没有车品牌,车系需要与车系库中 3000 多的车系词进行相似度比较,耗时较大,因此这里建立车系的倒排索表,key是车系库中每个字的拼音,value是包含这个拼音的所有车系词,对某个词纠错时,去索引表中取每个拼音的所有相关车系词进行比较。

 

 

由于车品牌 / 车系格式、表达较多样,这里还需要增加直接纠错和正则纠错。直接纠错:包含总结出来的错误词对儿、简称映射;例如,上海大众 –> 上汽大众, mg  –>  名爵,魏派 –>  wey,bmw –>  宝马。

 

正则纠错:包括总结出的部分错误模式以及一些特殊情况;比如车品牌是“进口宝马 ” 则纠正为 “ 宝马进口”,因为库中的所有进口车品牌或车系都是末尾标注“进口”二字,这样纠正后方便下一步的映射或相似度纠错。

 

以下展示了语音机器人线上用户回复部分文本中的槽位纠错情况。

 

 

在二手车回访对话中,与纠错前相比,纠错后线上车品牌车系两种槽位的准确率提升14.43%,召回率提升8.29%。

 

总结

 

本文重点介绍了槽位识别及槽位词纠错在智能语音机器人中的实践,并详细介绍了两个模块的实现过程和方法。目前槽位识别广泛应用于语音机器人多轮语音交互流程中,槽位纠错能在一定程度上克服由于通用ASR带来语音识别错误, 后续我们将探索尝试槽位识别与纠错进行联合训练的来提升整体槽位识别准确率。

 

参考文献:

 

[1] Li J , Sun A , Han J , et al. A Survey on Deep Learning for Named Entity Recognition[J]. IEEE Transactions on Knowledge and Data Engineering, 2020, PP(99):1-1.

 

[2] Ms. Maithilee L. Patawar , Mrs. M. A. Potey . “Approaches to named entity recognition: a survey”.

 

[3] Yu F , Koltun V . Multi-Scale Context Aggregation by Dilated Convolutions[J]. 2015.

 

[4] Huang, Z., W. Xu, and K. Yu. “Bidirectional lstm-crf models for sequence tagging. 2015.” arXiv preprint arXiv:1508.01991 (2015).

 

[5] Onur K , Ozan A , Deniz Y . CharNER: Character-Level Named Entity Recognition[J]. 2016

 

[6] Lample G , Ballesteros M , Subramanian S , et al. Neural Architectures for Named Entity Recognition[J]. 2016.

 

作者简介:

 

宋玉美: 58同城AI Lab算法高级工程师 ,目前主要负责智能语音机器人、智能语音分析算法研发工作,2019年硕士毕业于大连理工大学。

 

部门简介:

 

58同城TEG技术工程平台群AI Lab ,旨在推动AI技术在58同城的落地,打造AI中台能力,以提高前台业务人效和用户体验。AI Lab目前负责的产品包括:智能客服、语音机器人、智能写稿、智能语音分析平台、智能营销系统、AI算法平台、语音识别等,未来将持续加速创新,拓展AI应用。

 

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注