Press "Enter" to skip to content

深度学习用于文本摘要的论文及代码集锦

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

[1] A Neural Attention Model for Sentence Summarization

 

Alexander M. Rush et al.

 

Facebook AI Research / Harvard SEAS

 

EMNLP 2015

 

https://www.aclweb.org/anthology/D/D15/D15-1044.pdf

 

这篇文章提出一种完全数据驱动的方法对句子进行摘要汇总。该方法根据输入的句子利用局部注意力模型来生成摘要中的每个单词。虽然该模型结构上比较简单,但是可以简单的端到端的来训练,并且可以扩展到巨大的训练数据集中。

 

文本摘要对齐示例如下

 

文本输入以及摘要示例如下

 

 

注意力编码示例如下

 

 

Beam search 算法伪代码示例如下

 

 

各方法结果对比如下

 

 

 

 

代码地址

 

https://github.com/facebookarchive/NAMAS

 

[2] Get To The Point: Summarization with Pointer-Generator Networks

 

Abigail See

 

Stanford University

 

ACL 2017

 

http://www.aclweb.org/anthology/P17-1099

 

这篇文章提出一种新的序列到序列的注意力模型,该模型对原始的序列到序列的注意力模型进行了扩展。这种方法利用混合指向器-生成器网络将单词从原始文本中基于指针复制出来,这样可以精准的重新生成信息,同时利用生成器来保持生成新词的能力。另外,利用覆盖率来跟踪哪些信息已经抽取出来,从而避免重复信息。

 

基准的序列到序列的注意力模型示例如下

 

 

指向-生成器网络结构如下

 

 

各方法结果对比如下

 

 

各情形效果对比如下

 

 

 

代码地址

 

https://github.com/abisee/pointer-generator

 

[3] Abstractive Sentence Summarization with Attentive Recurrent Neural Networks

 

Sumit Chopra

 

Facebook AI Research

 

NAACL 2016

 

https://nlp.seas.harvard.edu/papers/naacl16_summary.pdf

 

这篇文章提出一种条件RNN用来对给定句子生成摘要。基于注意力的卷积编码可以确保解码器在每次迭代中只集中在适当的输入词中。该模型只依赖学到的特征,并且容易在大数据集中进行端到端的训练。

 

各模型结果对比如下

 

 

 

 

代码地址

 

https://github.com/facebookarchive/NAMAS

 

[4] Ranking Sentences for Extractive Summarization with Reinforcement Learning

 

Shashi Narayan et al.

 

University of Edinburgh

 

NAACL-HLT 2018

 

http://www.aclweb.org/anthology/N18-1158

 

这篇文章将文本摘要转化为句子排序问题,并且提出一种新的训练算法,该算法利用强化学习来全局优化ROUGE评价标准。

 

利用强化学习提取文本摘要

 

 

各方法效果对比如下

 

 

 

代码地址

 

https://github.com/EdinburghNLP/Refresh

 

[5] Deep Recurrent Generative Decoder for Abstractive Text Summarization

 

Piji Li et al.

 

The Chinese University of Hong Kong

 

EMNLP 2017

 

http://aclweb.org/anthology/D17-1222

 

这篇文章提出一种文本摘要的新框架,该框架基于序列到序列的编码解码模型,并且利用深层循环生成式解码(DRGD)。为提升摘要质量,利用循环隐含随机模型来学习摘要中的隐含结构信息。为解决循环隐含变量中的后验推理难题,本文利用了神经变分推理方法。摘要是由生成式隐含变量和判别式确定性状态来生成的。

 

DRGD结构如下

 

 

各方法结果对比如下

 

 

 

 

代码地址

 

https://github.com/lipiji/DRGD-LCSTS

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注