【论文阅读】Improving Document-level Relation Extraction via Contextualizing Mention Representations and W

古城微笑少年丶 2023-01-05 12:11 217阅读 0赞

ICKG 2020
作者提供的源代码

Improving Document-level Relation Extraction via Contextualizing Mention Representations and Weighting Mention Pairs

在这里插入图片描述

1. embedding层

每一个单词搞成word embedding,实体类型embedding,共指embedding,这三者的拼接。
将对应于同一实体的提及赋值为相同的实体id,并将实体id映射到向量中作为共指embedding。

2. encode层

把上一层的embedding送入N层堆叠的BILSTM,将BILSTM最后一层的输出送入线性层,用Relu激活一下。
在这里插入图片描述

3. Attender 层

说白了都是用单层的transformer实现的。

共同Attender

在这里插入图片描述
H是头实体的表示,T是尾实体的表示,因此获得上下文的表示。

集成Attender

负责对实体提及的表示,进行加权,融合。
在这里插入图片描述
圈圈表示element-wise按位相乘。
Dij表示实体提及的距离
在这里插入图片描述
通过自注意,集成attender可以识别出重要的实体提及,给他赋予较高权重。

4. 聚合层和输出层

由于一个实体可以有多个实体提及,这里使用多实例学习的方案,去整合所有实体提及对的预测结果。
在这里插入图片描述
首先使用多层感知机MLP对实体提及对的表示投影到每个关系的分数,然后使用 l o g S u m E x p logSumExp logSumExp函数将对应提及对的关系得分相加。

在这里插入图片描述
对于多标签数据集,使用 s i g m o i d sigmoid sigmoid生成每种关系的可能性。
对于其他数据集,则使用 s o f t m a x softmax softmax生成所有关系类型的分布。

发表评论

表情:
评论列表 (有 0 条评论,217人围观)

还没有评论,来说两句吧...

相关阅读