Press "Enter" to skip to content

带你读AI论文:SDMG-R结构化提取—无限版式小票场景应用

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

​​​​​​​​​​摘要:在文档图像中提取关键信息在自动化办公应用中至关重要。传统基于模板匹配或者规则的方法,在通用性方面、未见过版式模板数据方面,效果都不好;为此,本文提出了一种端到端的空间多模态图推理模型(SDMG-R),能有效的从未见过的模板数据中提取关键信息,并且通用性更好。

 

本文分享自华为云社区 《论文解读系列十二:SDMG-R结构化提取—无限版式小票场景应用》 ,作者:一笑倾城 。

 

 

源码: github.com/open-mmlab/…

 

1、背景

 

在文档图像中提取关键信息在办公自动化应用中至关重要,比如常见的存档文件、收据小票、信用表单等数据场景快速自动化归档、合规性检查等等。传统基于模板匹配或者规则的方法,主要利用的固定版式模板数据的布局、位置坐标信息、内容规则等,这些信息局限性很强,因此在通用性方面、未见过版式模板数据方面,效果都不好。为此,本文提出了一种端到端的空间多模态图推理模型(SDMG-R),能充分利用检测文本区域的位置布局、语义、视觉信息,相比之前获取的信息的更充分丰富,因此能有效的从未见过的模板数据中提取关键信息,并且通用性更好。

 

2、创新方法及亮点

 

2.1 数据

 

在之前的关键信息抽取任务中,常用的数据集大部分是 SROIE、IEHHR,但是他们训练集、测试集有很多公共模板版式,因此不太适合去评估或验证通用信息提取模型的通用能力;基于以上原因,本文构建一套新的关键信息抽取任务的数据集,并命名为 WildReceipt:由 25 个类别组成,大概有 50000 个文本区域,数据量是 SROIE 的两倍以上,详细信息如下表格 2-1 所示:

 

 

表 2-1 关键信息抽取任务数据集

 

2.2 创新点及贡献

 

本文提出的 SDMG-R 在 SROIE 数据集和 WildReceipt 数据集上都获得比较好的效果,并优于之前的方法模型。本文作者还去做了相关消融实验,并验证了本文提出的空间关系信息和多模态特征都对关键信息提取有着非常重要的影响。具体创新及贡献如下:

 

提出了一种有效的空间多模态图推理网络(SDMG-R),能充分利用文本区域的语义、视觉两个维度的空间特征关系信息;

 

构建了一套基准数据集(WildReceipt),是 SROIE 数据量的两倍,而且训练集版式模板和测试集版式模板交叉很少,因此可以用来做些通用关键信息抽取任务的探索研究;

 

本文利用了视觉、语义特征,如何利用好两者数据,本文做了相关验证:特征融合方法的有效性(CONCAT、线性求和、克罗内克积),最终结果克罗内克积比其他两种特征融合方法高两个点左右,如下表格 2-2 所示:

 

 

表 2-2 特征融合方法对比结果

 

3、网络结构

 

SDMG-R 模型整个网络结构如下图 3-1 所示,模型输入数据由图片、对应文本检测坐标区域、对应文本区域的文本内容,视觉特征通过 Unet 及 ROI-Pooling 进行提取,语义特征通过 Bi-LSTM 进行提取,然后多模态特征通过克罗内克积进行融合语义、视觉特征,然后再输入到空间多模态推理模型提取最终的节点特征,最后通过分类模块进行多分类任务

 

 

图 3-1 SDMG-R 网络结构

 

3.1 视觉特征提取详细步骤

 

a. 输入原始图片,resize 到固定输入尺寸(本文 512×512);

 

b. 输入到 Unet,使用 Unet 作为视觉特征提取器,获取得到 CNN 最后一层的特征图;

 

c. 将输入尺寸的文本区域坐标()映射到最后一层 CNN 特征图,通过 ROI-pooling 方法进行特征提取,获取对应文本区域图像的视觉特征;

 

3.2 文本语义特征提取详细步骤

 

a. 首先收集字符集表,本文收集了 91 个长度字符表,涵盖数字(0-9)、字母(a-z,A-Z)、相关任务的特殊字符集(如“/”, “n”,“.”, “$”, “AC”, “ ”, “¥”, “:”, “-”, “*”, “#”等),不在字符表的字符统一标记成“unkown”;

 

b. 其次,然后将文本字符内容映射到 32 维度的 one-hot 语义输入的编码形式;

 

c. 然后输入到 Bi-LSTM 模型中,提取 256 维度语义特征;

 

3.3 视觉+文本语义特征融合步骤

 

a. 多模态特征融合:通过克罗内克积进行特征融合,具体公式如下:

 

 

 

3.4 空间关系多模态图推理模型

 

最终的节点特征通过多模态图推理模型完成,公式如下:

 

 

 

 

3.5 多分类任务模块

 

根据图推理模型获取节点的特征,最后输入到分类模块,通过多分类任务输出最终的实体分类结果,损失函数使用的是交叉熵损失,公式如下:

 

 

4、实验结果

 

在 SROIE 数据集的结果如下表 4-1 所示:

 

 

表 4-1 SROIE 的精度

 

在 WildReceipt 测试集的结果如下表 4-2 所示:

 

 

表 4-2 WildReceipt 的精度

 

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注