Update README.md
This commit is contained in:
parent
507cf49454
commit
fce4e22738
115
README.md
115
README.md
@ -225,9 +225,8 @@ D.Ahn首先提出将ACE事件提取任务分成四个子任务:触发词检测
|
||||
动机:
|
||||
ACE事件抽取任务的传统方法通常依赖被手动注释过的数据,但是手动注释数据非常耗费精力并且也限制了数据集的规模。我们提出了一个方法来克服这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure16-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure16.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/16-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/16.png)
|
||||
|
||||
|
||||
主要思想:
|
||||
@ -248,9 +247,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
我们考虑开放领域的事件提取,即从新闻集群中抽取无约束的事件类型的任务。结果表明,与最新的事件模式归纳方法相比,这种无监督模型具有更好的性能。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure15-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/15-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure15.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/15.png)
|
||||
|
||||
主要思想:
|
||||
以前关于生成模式归纳的研究非常依赖人工生成的指标特征,而我们引入了由神经网络产生的潜在变量来获得更好的表示能力。我们设计了一种新颖的图形模型,该模型具有潜在的事件类型矢量以及实体的文本冗余特征,而这些潜在的事件类型矢量来自全局参数化正态分布的新闻聚类。
|
||||
@ -268,7 +267,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
从文本中获取事件发生的时间、地点、人物以及具体做了什么是很多应用程序(例如网页搜索和问题解答)的核心信息抽取任务之一。本文定义了一种快速自定义事件抽取功能的系统,用于查找新的事件类型以及他们的论元。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure14.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/14.png)
|
||||
|
||||
主要思想:
|
||||
为了能够提抽新类型的事件,我们提出了一种新颖的方法:让用户通过探索无注释的语料库来查找,扩展和过滤事件触发词。然后,系统将自动生成相应级别的事件注释,并训练神经网络模型以查找相应事件。
|
||||
@ -286,7 +285,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
从资源不足以及注释不足的语料库中进行复杂语义结构的识别(例如事件和实体关系)是很困难的,这已经变成了一个很有挑战性的信息抽取任务。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure13.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/13.png)
|
||||
|
||||
主要思想:
|
||||
通过使用卷积神经网络,将所有实体信息片段、事件触发词、事件背景放入一个复杂的、结构化的多语言公共空间,然后我们可以从源语言注释中训练一个事件抽取器,并将它应用于目标语言。
|
||||
@ -308,7 +307,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
|
||||
动机:解码论元需要一定顺序,先后有关
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure12.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/12.png)
|
||||
|
||||
主要思想:发布数据集,具有特性:arguments-scattering and multi-event,先对事件是否触发进行预测;然后,按照一定顺序先后来分别解码论元
|
||||
|
||||
@ -324,7 +323,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
许多信息提取任务(例如被命名的实体的识别,关系提取,事件抽取和共指消解)都可以从跨句子的全局上下文或无局部依赖性的短语中获益。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure11.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/11.png)
|
||||
|
||||
主要思想:
|
||||
(1)将事件提取作为附加任务执行,并在事件触发词与其论元的关系图形中进行跨度更新。
|
||||
@ -341,9 +340,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
<a href="https://link.zhihu.com/?target=https%3A//www.aclweb.org/anthology/D19-1584/">HMEAE: Hierarchical Modular Event Argument Extraction, EMNLP 2019 short(<a href="https://link.zhihu.com/?target=https%3A//github.com/thunlp/HMEAE">Github</a>)</summary><blockquote><p align="justify">
|
||||
任务:事件角色分类
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure10-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/10-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure10.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/10.png)
|
||||
|
||||
动机:论元的类型(如PERSON)会给论元之间的关联带来影响
|
||||
|
||||
@ -360,9 +359,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
事件之间的时间关系的提取是一项重要的自然语言理解(NLU)任务,可以使许多下游任务受益。我们提出了一种事件和时间关系的联合抽取模型,该模型可以进行共享表示学习和结构化预测。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure9.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/9.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure9-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/9-2.png)
|
||||
|
||||
主要思想:
|
||||
(1)提出了一个同时进行事件和时间关系抽取的联合模型。这样做的好处是:如果我们使用非事件之间的NONE关系训练关系分类器,则它可能具有修正事件抽取错误的能力。
|
||||
@ -381,7 +380,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
提取开放域事件的结构化表示的方法通常假定文档中的所有单词都是从单个事件中生成的,因此他们通常不适用于诸如新闻文章之类的长文本。为了解决这些局限性,我们提出了一种基于生成对抗网络的事件抽取模型,称为对抗神经事件模型(AEM)。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure8.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/8.png)
|
||||
|
||||
|
||||
主要思想:
|
||||
@ -400,7 +399,7 @@ AEM使用Dirichlet先验对事件建模,并使用生成器网络来捕获潜
|
||||
动机:
|
||||
将事件提取和多实例学习应用于本地新闻文章的语料库,可以用来预测仇恨犯罪的发生。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure7.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/7.png)
|
||||
|
||||
主要思想:
|
||||
根据是否为仇恨罪标记每篇文章的任务被定义为多实例学习(MIL)问题。我们通过使用文章所有句子中嵌入的信息来确定文章是否报道了仇恨犯罪。在一组带注释的文章上测试了模型之后,我们将被训练过的模型应用于联邦调查局没有报道过的城市,并对这些城市中仇恨犯罪的发生频率进行了下界估计。
|
||||
@ -416,7 +415,7 @@ AEM使用Dirichlet先验对事件建模,并使用生成器网络来捕获潜
|
||||
动机:
|
||||
事件抽取任务包括许多子任务:实体抽取,事件触发词抽取,元素角色抽取。传统的方法是使用pipeline的方式解决这些任务,没有利用到任务间相互关联的信息。已有一些联合学习的模型对这些任务进行处理,然而由于技术上的挑战,还没有模型将其看作一个单一的任务,预测联合的输出结构。本文提出了一个transition-based的神经网络框架,以state-transition的过程,递进地预测复杂的联合结构。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure6.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/6.png)
|
||||
|
||||
主要思想:
|
||||
使用transition-based的框架,通过使用递增的output-building行为的state-transition过程,构建一个复杂的输出结构。在本文中我们设计了一个transition系统以解决EE问题,从左至右递增地构建出结构,不使用可分的子任务结构。本文还是第一个使transition-based模型,并将之用于实体和事件的联合抽取任务的研究。模型实现了对3个子任务完全的联合解码,实现了更好的信息组合。
|
||||
@ -436,9 +435,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
生物医学领域的事件抽取比一般新闻领域的事件抽取更具挑战性,因为它需要更广泛地获取领域特定的知识并加深对复杂情境的理解。为了更好地对上下文信息和外部背景知识进行编码,我们提出了一种新颖的知识库(KB)驱动的树结构长短期记忆网络(Tree-LSTM)框架。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure5-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/5-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure5.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/5.png)
|
||||
|
||||
主要思想:
|
||||
该框架合并了两种功能:(1)抓取上下文背景的依赖结构(2)(2)通过实体链接从外部本体获得实体属性(类型和类别描述)。
|
||||
@ -498,7 +497,7 @@ Keywords: Knowledge-driven Tree-LSTM
|
||||
|
||||
动机:现有的训练数据必须通过专业领域知识以及大量的参与者来手动生成,这样生成的数据规模很小,严重影响训练出来的模型的质量。因此我们开发了一种自动生成事件抽取训练数据的方法。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure25.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/25.png)
|
||||
|
||||
主要思想:我们提出了一种基于神经网络和线性规划的事件抽取框架,该模型不依赖显式触发器,而是使用一组关键论元来表征事件类型。这样就去不需要明确识别事件的触发因素,进而降低了人力参与的需求。
|
||||
|
||||
@ -533,9 +532,9 @@ Keywords: Automatically Labelled, Chinese Financial EE
|
||||
|
||||
动机:传统的事件抽取很大程度上依赖词汇和句法特征,需要大量的人工工程,并且模型通用性不强。另一方面,深度神经网络可以自动学习底层特征,但是现有的网络却没有充分利用句法关系。因此本文在对每个单词建模时,使用依赖桥来增强它的信息表示。说明在RNN模型中同时应用树结构和序列结构比只使用顺序RNN具有更好的性能。另外,利用张量层来同时捕获论元之间的关系以及其在事件中的角色。实验表明,模型取得了很好地效果。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure23-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/23-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure23.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/23.png)
|
||||
|
||||
主要思想:
|
||||
(1)实现了事件触发词以及Argument的联合抽取,避开了Pipeline方法中错误的触发词识别结果会在网络中传播的问题;同时联合抽取的过程中,有可能通过元素抽取的步骤反过来纠正事件检测的结果。
|
||||
@ -554,7 +553,7 @@ Keywords: dbRNN
|
||||
(<a href="https://github.com/wilburOne/ZeroShotEvent">Github</a>)</summary><blockquote><p align="justify">
|
||||
动机:以前大多数受监督的事件提取方法都依赖手动注释派生的特征,因此,如果没有额外的注释工作,这些方法便无法应对于新的事件类型。我们设计了一个新的框架来解决这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure22.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/22.png)
|
||||
|
||||
主要思想:每个事件都有由候选触发词和论元组成的结构,同时这个结构具有和事件类型及论元相一致的预定义的名字和标签。 我们增加了事件类型以及事件信息片段的语义代表( semantic representations),并根据目标本体中定义的事件类型和事件信息片段的语义相似性来决定事件的类型
|
||||
|
||||
@ -572,11 +571,11 @@ Keywords: Zero-Shot Transfer
|
||||
|
||||
动机:在某些特定领域,例如金融,医疗和司法领域,由于数据标记过程的成本很高,因此标记数据不足。此外,当前大多数方法都关注于从一个句子中提取事件,但通常在一个文档中,一个事件由多个句子表示。我们提出一种方法来解决这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-2.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-3.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-3.png)
|
||||
|
||||
主要思想:我们提供了一个名为DCFEE的框架,该框架可以从被自动标记过的训练数据中抽取文档级事件。我们使用一个序列标记模型来自动抽取句子级事件,并且提出了一个关键事件检测模型和一个论元填充策略,进而从文档中提取整个事件。
|
||||
|
||||
@ -594,9 +593,9 @@ Keywords: Automatically Labelled, Chinese Financial EE
|
||||
|
||||
动机:我们提出了一种基于生成对抗的模仿学习的实体与事件抽取框架,这种学习是一种使用生成对抗网络(GAN)的逆强化学习方法。该框架的实际表现优于目前最先进的方法。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure20-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/20-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure20-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/20-2.png)
|
||||
|
||||
主要思想:在本文中,我们提出了一种动态机制——逆强化学习,直接评估实体和事件提取中实例的正确和错误标签。 我们为案例分配明确的分数,或者根据强化学习(RL)给予奖励,并采用来自生成对抗网络(GAN)的鉴别器来估计奖励价值。
|
||||
|
||||
@ -610,9 +609,9 @@ Keywords: Automatically Labelled, Chinese Financial EE
|
||||
|
||||
动机:比提取单个事件更困难。在以往的工作中,由于捕获远距离的依赖关系效率很低,因此通过顺序建模的方法在对事件之间的联系进行建模很难成功。本文提出了一种新的框架来解决这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure19-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/19-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure19.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/19.png)
|
||||
|
||||
主要思想:本文提出JMEE模型(Jointly Multiple Events Extraction),面向的应用是从一个句子中抽取出多个事件触发器和参数(arguments)。JMEE模型引入了syntactic shortcut arcs来增强信息流并且使用基于attention的GCN建模图数据。实验结果表明本文的方法和目前最顶级的方法相比,有着可以媲美的效果。
|
||||
|
||||
@ -655,9 +654,9 @@ Keywords: Semi-supervised
|
||||
动机:
|
||||
论元的语法依存关系
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure17-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/17-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure17.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/17.png)
|
||||
|
||||
主要思想:
|
||||
用GCN增强论元之间的依存关系
|
||||
@ -677,7 +676,7 @@ Keywords: Semi-supervised
|
||||
|
||||
动机:手动标记的训练数据成本太高,事件类型覆盖率低且规模有限,这种监督的方法很难从知识库中抽取大量事件。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure26.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/26.png)
|
||||
|
||||
主要思想:1)提出了一种按重要性排列论元并且为每种事件类型选取关键论元或代表论元方法。2)仅仅使用关键论元来标记事件,并找出关键词。3)用外部语言知识库FrameNet来过滤噪声触发词并且扩展触发词库。
|
||||
|
||||
@ -697,7 +696,7 @@ Keywords: Data Generation, Distant Supervision
|
||||
(<a>Github</a>)</summary><blockquote><p align="justify">
|
||||
动机:在最近的工作中,当确定事件类型(触发器分类)时,大多数方法要么是仅基于模式(pattern),要么是仅基于特征。此外,以往的工作在识别和文类论元的时候,忽略了论元之间的关系,只是孤立的考虑每个候选论元。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure32.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/32.png)
|
||||
|
||||
主要思想:在本文中,我们同时使用‘模式’和‘特征’来识别和分类‘事件触发器’。 此外,我们使用正则化方法对候选自变量之间的关系进行建模,以提高自变量识别的性能。 我们的方法称为基于正则化的模式平衡方法。
|
||||
|
||||
@ -715,7 +714,7 @@ Keywords: Embedding & Pattern features, Regularization method
|
||||
|
||||
动机:迄今为止,利用跨语言培训来提高性能的工作非常有限。因此我们提出了一种新的事件抽取方法。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure31.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/31.png)
|
||||
|
||||
主要思想:在本文中,我们提出了一种新颖的跨语言事件抽取方法,该方法可在多种语言上进行训练,并利用依赖于语言的特征和不依赖于语言的特征来提高性能。使用这种系统,我们旨在同时利用可用的多语言资源(带注释的数据和引入的特征)来克服目标语言中的注释稀缺性问题。 从经验上我们认为,我们的方法可以极大地提高单语系统对中文事件论元提取任务的性能。 与现有工作相比,我们的方法是新颖的,我们不依赖于使用高质量的机器翻译的或手动对齐的文档,这因为这种需求对于给定的目标语言可能是无法满足的。
|
||||
|
||||
@ -751,9 +750,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
|
||||
动机:在中文的事件抽取中,以前的方法非常依赖复杂的特征工程以及复杂的自然语言处理工具。本文提出了一种卷积双向LSTM神经网络,该神经网络将LSTM和CNN结合起来,可以捕获句子级和词汇信息,而无需任何人为提供的特征。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure30-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/30-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure30.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/30.png)
|
||||
|
||||
主要思想:首先使用双向LSTM将整个句子中的单词的语义编码为句子级特征,不做任何句法分析。然后,我们利用卷积神经网络来捕获突出的局部词法特征来消除触发器的歧义,整个过程无需来自POS标签或NER的任何帮助。
|
||||
|
||||
@ -770,9 +769,9 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
|
||||
动机:结合了象征式的(例如抽象含义表示)和分布式的语义来检测和表示事件结构,并采用同一个类型框架来同时提取事件类型和论元角色并发现事件模式。这种模式的提取性能可以与被预定义事件类型标记过的大量数据训练的监督模型相媲美。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure29-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/29-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure29-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/29-2.png)
|
||||
|
||||
主要思想:我们试图将事件触发器和事件论元聚类,每个聚类代表一个事件类型。 我们将分布的相似性用于聚类的距离度量。分布假设指出,经常出现在相似语境中的单词往往具有相似的含义。
|
||||
|
||||
@ -810,7 +809,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
|
||||
动机:论元之间有着相关关系,某些论元已经识别出来可能会导致一些论元共现,RNN减少错误传播
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure27.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/27.png)
|
||||
|
||||
主要思想:使用RNN来标注要素,通过记忆矩阵来增强要素之间的关联。
|
||||
|
||||
@ -832,7 +831,7 @@ Keywords: RNN, Joint Event Extraction
|
||||
|
||||
动机:在于一个句子中可能会有多个事件,如果只用一个池化将导致多个事件的句子级特征没有区别。因此引入动态多池化
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure34.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/34.png)
|
||||
|
||||
主要思想:采用动态多池化的方式,以trigger和candidate作为分隔符[-trigger-candidate-],将句子池化成三段;动机在于一个句子中可能会有多个事件,如果只用一个池化将导致多个事件的句子级特征没有区别。将任务目标转换成句子分类任务,从而完成任务。
|
||||
|
||||
@ -851,9 +850,9 @@ keywords: DMCNN, CNN, Dynamic Multi-Pooling
|
||||
(<a>Github</a>)</summary><blockquote><p align="justify">
|
||||
动机:以往文献中的方法仅仅使用中心词来代表实体,然而除了中心词,别的元素也包含了很多重要的信息。这篇论文提出了一种事件模式归纳的生成模型来解决这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure33-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/33-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure33.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/33.png)
|
||||
|
||||
主要思想:模式归纳是指从没有被标记的文本中无监督的学习模板(一个模板定义了一个与实体的语义角色有关的特定事件的类型)。想法是:基于事件模板中相同角色对应的这些实体的相似性,将他们分组在一起。例如,在有关恐怖袭击的语料库中,可以将要被杀死,要被攻击的对象的实体组合在一起,并以名为VICTIM的角色为它们的特征。
|
||||
|
||||
@ -965,7 +964,7 @@ keywords: DMCNN, CNN, Dynamic Multi-Pooling
|
||||
动机:
|
||||
从资源不足以及注释不足的语料库中进行复杂语义结构的识别(例如事件和实体关系)是很困难的,这已经变成了一个很有挑战性的信息抽取任务。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure13.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/13.png)
|
||||
|
||||
主要思想:
|
||||
通过使用卷积神经网络,将所有实体信息片段、事件触发词、事件背景放入一个复杂的、结构化的多语言公共空间,然后我们可以从源语言注释中训练一个事件抽取器,并将它应用于目标语言。
|
||||
@ -984,11 +983,11 @@ keywords: DMCNN, CNN, Dynamic Multi-Pooling
|
||||
|
||||
动机:在某些特定领域,例如金融,医疗和司法领域,由于数据标记过程的成本很高,因此标记数据不足。此外,当前大多数方法都关注于从一个句子中提取事件,但通常在一个文档中,一个事件由多个句子表示。我们提出一种方法来解决这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-2.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure21-3.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/21-3.png)
|
||||
|
||||
主要思想:我们提供了一个名为DCFEE的框架,该框架可以从被自动标记过的训练数据中抽取文档级事件。我们使用一个序列标记模型来自动抽取句子级事件,并且提出了一个关键事件检测模型和一个论元填充策略,进而从文档中提取整个事件。
|
||||
|
||||
@ -1009,9 +1008,9 @@ Keywords: Automatically Labelled, Chinese Financial EE
|
||||
|
||||
动机:在中文的事件抽取中,以前的方法非常依赖复杂的特征工程以及复杂的自然语言处理工具。本文提出了一种卷积双向LSTM神经网络,该神经网络将LSTM和CNN结合起来,可以捕获句子级和词汇信息,而无需任何人为提供的特征。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure30-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/30-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure30.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/30.png)
|
||||
|
||||
主要思想:首先使用双向LSTM将整个句子中的单词的语义编码为句子级特征,不做任何句法分析。然后,我们利用卷积神经网络来捕获突出的局部词法特征来消除触发器的歧义,整个过程无需来自POS标签或NER的任何帮助。
|
||||
|
||||
@ -1057,9 +1056,9 @@ Keywords: Semi-supervised
|
||||
<a>Open-domain Event Extraction and Embedding for Natural Gas Market Prediction, arxiv 2020 (<a href="https://github.com/">Github</a>)</summary><blockquote><p align="justify">
|
||||
动机:以前的方法大多数都将价格视为可推断的时间序列,那些分析价格和新闻之间的关系的方法是根据公共新闻数据集相应地修正其价格数据、手动注释标题或使用现成的工具。与现成的工具相比,我们的事件提取方法不仅可以检测现象的发生,还可以由公共来源检测变化的归因和特征。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure2-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/2-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure2-2.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/2-2.png)
|
||||
|
||||
主要思想:依靠公共新闻API的标题,我们提出一种方法来过滤不相关的标题并初步进行事件抽取。价格和文本均被反馈到3D卷积神经网络,以学习事件与市场动向之间的相关性。
|
||||
|
||||
@ -1092,7 +1091,7 @@ Keywords: Semi-supervised
|
||||
动机:
|
||||
将事件提取和多实例学习应用于本地新闻文章的语料库,可以用来预测仇恨犯罪的发生。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure7.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/7.png)
|
||||
|
||||
主要思想:
|
||||
根据是否为仇恨罪标记每篇文章的任务被定义为多实例学习(MIL)问题。我们通过使用文章所有句子中嵌入的信息来确定文章是否报道了仇恨犯罪。在一组带注释的文章上测试了模型之后,我们将被训练过的模型应用于联邦调查局没有报道过的城市,并对这些城市中仇恨犯罪的发生频率进行了下界估计。
|
||||
@ -1112,7 +1111,7 @@ Keywords: Semi-supervised
|
||||
动机:
|
||||
从资源不足以及注释不足的语料库中进行复杂语义结构的识别(例如事件和实体关系)是很困难的,这已经变成了一个很有挑战性的信息抽取任务。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure13.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/13.png)
|
||||
|
||||
主要思想:
|
||||
通过使用卷积神经网络,将所有实体信息片段、事件触发词、事件背景放入一个复杂的、结构化的多语言公共空间,然后我们可以从源语言注释中训练一个事件抽取器,并将它应用于目标语言。
|
||||
@ -1131,7 +1130,7 @@ Keywords: Semi-supervised
|
||||
|
||||
动机:迄今为止,利用跨语言培训来提高性能的工作非常有限。因此我们提出了一种新的事件抽取方法。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure31.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/31.png)
|
||||
|
||||
主要思想:在本文中,我们提出了一种新颖的跨语言事件抽取方法,该方法可在多种语言上进行训练,并利用依赖于语言的特征和不依赖于语言的特征来提高性能。使用这种系统,我们旨在同时利用可用的多语言资源(带注释的数据和引入的特征)来克服目标语言中的注释稀缺性问题。 从经验上我们认为,我们的方法可以极大地提高单语系统对中文事件论元提取任务的性能。 与现有工作相比,我们的方法是新颖的,我们不依赖于使用高质量的机器翻译的或手动对齐的文档,这因为这种需求对于给定的目标语言可能是无法满足的。
|
||||
|
||||
@ -1157,9 +1156,9 @@ Keywords: Training on multiple languages using a combination of both language-de
|
||||
动机:
|
||||
ACE事件抽取任务的传统方法通常依赖被手动注释过的数据,但是手动注释数据非常耗费精力并且也限制了数据集的规模。我们提出了一个方法来克服这个问题。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure16-1.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/16-1.png)
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure16.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/16.png)
|
||||
|
||||
主要思想:
|
||||
本文提出了一个基于预训练语言模型的框架,该框架包含一个作为基础的事件抽取模型以及一种生成被标记事件的方法。我们提出的事件抽取模型由触发词抽取器和论元抽取器组成,论元抽取器用前者的结果进行推理。此外,我们根据角色的重要性对损失函数重新进行加权,从而提高了论元抽取器的性能。
|
||||
@ -1178,7 +1177,7 @@ Keywords: Context-aware word representation, LSTM, Tensor layer
|
||||
动机:
|
||||
提取开放域事件的结构化表示的方法通常假定文档中的所有单词都是从单个事件中生成的,因此他们通常不适用于诸如新闻文章之类的长文本。为了解决这些局限性,我们提出了一种基于生成对抗网络的事件抽取模型,称为对抗神经事件模型(AEM)。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure8.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/8.png)
|
||||
|
||||
|
||||
主要思想:
|
||||
@ -1196,7 +1195,7 @@ AEM使用Dirichlet先验对事件建模,并使用生成器网络来捕获潜
|
||||
动机:
|
||||
将事件提取和多实例学习应用于本地新闻文章的语料库,可以用来预测仇恨犯罪的发生。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure7.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/7.png)
|
||||
|
||||
主要思想:
|
||||
根据是否为仇恨罪标记每篇文章的任务被定义为多实例学习(MIL)问题。我们通过使用文章所有句子中嵌入的信息来确定文章是否报道了仇恨犯罪。在一组带注释的文章上测试了模型之后,我们将被训练过的模型应用于联邦调查局没有报道过的城市,并对这些城市中仇恨犯罪的发生频率进行了下界估计。
|
||||
@ -1212,7 +1211,7 @@ AEM使用Dirichlet先验对事件建模,并使用生成器网络来捕获潜
|
||||
|
||||
动机:手动标记的训练数据成本太高,事件类型覆盖率低且规模有限,这种监督的方法很难从知识库中抽取大量事件。
|
||||
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figure26.png)
|
||||
![image](https://github.com/xiaoqian19940510/Event-Extraction/blob/master/figures/26.png)
|
||||
|
||||
主要思想:1)提出了一种按重要性排列论元并且为每种事件类型选取关键论元或代表论元方法。2)仅仅使用关键论元来标记事件,并找出关键词。3)用外部语言知识库FrameNet来过滤噪声触发词并且扩展触发词库。
|
||||
|
||||
|
Loading…
Reference in New Issue
Block a user