MPLR: a novel model for multi-target learning of logical rules for knowledge graph reasoning
MPLR:知识图推理逻辑规则多目标学习的新模型
摘要
大规模知识图(KGs)提供了人类知识的结构化表示。然而,由于不可能包含所有的知识,kg通常是不完整的。基于已有事实的推理为发现缺失的事实铺平了道路。本文研究了知识图上推理补全缺失事实三元组的逻辑规则学习问题。学习逻辑规则使模型具有较强的可解释性和对类似任务的泛化能力。
我们提出了一个名为MPLR的模型,该模型改进了现有的模型,以充分利用训练数据,并考虑了多目标场景。此外,考虑到在评价模型性能和挖掘规则质量方面存在的不足,我们进一步提出了两个新的指标来帮助解决这个问题。实验结果表明,我们的MPLR模型在5个基准数据集上的性能优于目前最先进的方法。结果也证明了指标的有效性。
本文贡献
本文在借鉴以往图论研究的基础上,首先提出了两个新的指标饱和和分叉,这两个指标有助于KG推理任务中的评价。饱和有助于间接分析学习规则的可解释性,而分叉服务是对传统度量的补充。
然后我们探索多目标概率逻辑推理(MPLR):神经线性规划框架的扩展,允许在多目标情况下进行推理。我们的方法重新制定了方程,并改进了实体表示和模型优化,这使它能够学习KG中的更多事实。
我们将这些指标应用于几个知识图基准,以便更好地理解它们的数据结构。此外,我们在这些数据集上评估了我们的模型,实验表明,我们的模型优于最先进的KG推理方法。此外,MPLR能够生成高质量的逻辑规则。
饱和度定义
宏观推理饱和度
我们将宏观推理饱和度定义为查询子图中所涉及到的三元组所占全部三元组的百分比,公式如下:
分子是查询子图中涉及到的三元组数,分母是所有三元组(所有的边)数。
微观推理饱和度
公式如下:
分叉
分为入度分叉和出度分叉。入度分叉指入读超过一个定值的头节点所占的百分比,出度分叉指出度超过一个定值的尾节点所占的百分比。