論文の概要: Logical Entity Representation in Knowledge-Graphs for Differentiable
Rule Learning
- arxiv url: http://arxiv.org/abs/2305.12738v1
- Date: Mon, 22 May 2023 05:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 18:08:04.187016
- Title: Logical Entity Representation in Knowledge-Graphs for Differentiable
Rule Learning
- Title(参考訳): 微分可能ルール学習のための知識グラフにおける論理実体表現
- Authors: Chi Han, Qizheng He, Charles Yu, Xinya Du, Hanghang Tong, Heng Ji
- Abstract要約: 本稿では,知識グラフ内のエンティティのコンテキスト情報をエンコードするための論理エンティティ・リプレゼンテーション(LERP)を提案する。
LERPは、エンティティの隣接部分グラフ上の確率論的論理関数のベクトルとして設計されている。
我々のモデルは知識グラフ補完において他のルール学習法よりも優れており、最先端のブラックボックス法に匹敵する、あるいは優れている。
- 参考スコア(独自算出の注目度): 71.05093203007357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic logical rule learning has shown great strength in logical rule
mining and knowledge graph completion. It learns logical rules to predict
missing edges by reasoning on existing edges in the knowledge graph. However,
previous efforts have largely been limited to only modeling chain-like Horn
clauses such as $R_1(x,z)\land R_2(z,y)\Rightarrow H(x,y)$. This formulation
overlooks additional contextual information from neighboring sub-graphs of
entity variables $x$, $y$ and $z$. Intuitively, there is a large gap here, as
local sub-graphs have been found to provide important information for knowledge
graph completion. Inspired by these observations, we propose Logical Entity
RePresentation (LERP) to encode contextual information of entities in the
knowledge graph. A LERP is designed as a vector of probabilistic logical
functions on the entity's neighboring sub-graph. It is an interpretable
representation while allowing for differentiable optimization. We can then
incorporate LERP into probabilistic logical rule learning to learn more
expressive rules. Empirical results demonstrate that with LERP, our model
outperforms other rule learning methods in knowledge graph completion and is
comparable or even superior to state-of-the-art black-box methods. Moreover, we
find that our model can discover a more expressive family of logical rules.
LERP can also be further combined with embedding learning methods like TransE
to make it more interpretable.
- Abstract(参考訳): 確率論的論理ルール学習は、論理ルールマイニングと知識グラフ補完において大きな強みを示している。
知識グラフの既存のエッジを推論することで、不足するエッジを予測する論理ルールを学ぶ。
しかし、これまでの取り組みは、R_1(x,z)\land R_2(z,y)\Rightarrow H(x,y)$のようなチェーンのようなホーン節のモデリングに限られていた。
この定式化は、隣接するエンティティ変数のサブグラフ($x$, $y$, $z$)から追加のコンテキスト情報を見渡す。
直観的には、ローカルなサブグラフが知識グラフ補完の重要な情報を提供するという大きなギャップがある。
これらの観測から着想を得て,知識グラフ内のエンティティのコンテキスト情報をエンコードする論理エンティティ・リプレゼンテーション(LERP)を提案する。
LERPは、エンティティの隣接部分グラフ上の確率論的論理関数のベクトルとして設計されている。
微分可能最適化が可能ながら、解釈可能な表現である。
LERPを確率論的論理規則学習に組み込んで、より表現力のある規則を学ぶことができる。
実験の結果,LERPでは知識グラフの完成度において他のルール学習法よりも優れており,最先端のブラックボックス法と同等かそれ以上に優れていることがわかった。
さらに、我々のモデルはより表現力のある論理規則の族を見つけることができる。
さらに、transeのような組み込み学習メソッドと組み合わせて、より解釈しやすくすることもできる。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - RulE: Knowledge Graph Reasoning with Rule Embedding [69.31451649090661]
我々は、論理ルールを活用してKG推論を強化する、textbfRulE(ルール埋め込みのためのスタンド)と呼ばれる原則的なフレームワークを提案する。
RulEは、既存の三重項と一階規則からルールの埋め込みを学習し、統一された埋め込み空間において、textbfentities、textbfrelations、textbflogical rulesを共同で表現する。
複数のベンチマークの結果、我々のモデルは既存の埋め込みベースのアプローチやルールベースのアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-10-24T06:47:13Z) - DegreEmbed: incorporating entity embedding into logic rule learning for
knowledge graph reasoning [7.066269573204757]
知識グラフのリンク予測は、既存の知識に基づいて推論することで、行方不明の事実を完遂することを目的としたタスクである。
組込み学習と論理ルールマイニングを組み合わせたKG上での推論モデルであるDegreEmbedを提案する。
論文 参考訳(メタデータ) (2021-12-18T13:38:48Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。