提出一种新的深度学习文档级实体消歧模型
Key components
- Entity Embeddings:上下文单词和候选实体嵌入到同一公共向量空间
- 局部上下文的注意力机制
- 联合概率推理模型
Contributions
- 实体嵌入
- 上下文注意力机制用于局部消歧
- 提出深度学习框架进行全局消歧
Local Model
mention-entity prior $\hat{p}(e|m)$ :统计mention和entity hyperlink计数统计数据求平均概率(Wikipedia and YAGO dictionary)
soft Attention: $u(w)=max_{e∈\Gamma(m)}x_e^TAx_w$
hard Attention: $\overline{c}={w∈c|u(w)∈topR(u)},R\leq K$
weighted sum: $\beta(w)=\left{\begin{matrix}\frac{exp[u(w)]}{\sum_{v∈\overline{c}}exp[u(v)]}. \text{ } if w∈\overline{c}\0 \text{ } otherwise.\end{matrix}\right.$
$\beta$-weighted context-based entity-mention score : $\Psi(e,c)=\sum_{w∈\overline{c}}\beta(w)x_e^TBx_w$
Local Score Combination
$$\Psi(e,m,c)=f(\Psi(e,c),log\hat{p}(e|m))$$
Document-Level Deep Model
CRF Model
$g(e,m,c)=\sum_{i=1}^n\Psi_i(e_i)+\sum_{i<j}\Phi(e_i,e_j)$
$$\Phi(e,e’)=\frac{2}{n-1}x_e^TCx_{e’}$$
Differentiable Inference
$m_{i->j}^{t+1}(e)=\underset{e’∈\Gamma(m_i)}{max}{\Psi_i(e’)+\Phi(e,e’)+\underset{k\ne{j}}{\sum}\overline{m}_{k->i}^t(e’)}$
$\overline{m}{i->j}^t(e)=log[\delta*softmax(m{i->j}^t(e))+(1-\delta)*exp(\overline{m}_{i->j}^{t-1}(e))]$
- 本文链接:https://wentianhao.github.io/2020/12/09/deepED/
- 版权声明:本博客所有文章除特别声明外,均默认采用 许可协议。
若没有本文 Issue,您可以使用 Comment 模版新建。