論文の概要: Abductive Logical Reasoning on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2312.15643v1
- Date: Mon, 25 Dec 2023 08:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:19:20.731688
- Title: Abductive Logical Reasoning on Knowledge Graphs
- Title(参考訳): 知識グラフに基づく帰納論理的推論
- Authors: Jiaxin Bai, Yicheng Wang, Tianshi Zheng, Yue Guo, Xin Liu, and Yangqiu
Song
- Abstract要約: 知識グラフ(KG)に対する帰納的論理的推論は、KG文学において過小評価されている。
本稿では,知識グラフ(RLF-KG)による強化学習を導入し,KGに基づいて生成された仮説から引き出された観測結果と結論との差を最小化する。
実験により,変圧器を用いた生成モデルが論理的説明を堅牢かつ効率的に生成できることが実証された。
- 参考スコア(独自算出の注目度): 43.26412690886471
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Abductive reasoning is logical reasoning that makes educated guesses to infer
the most likely reasons to explain the observations. However, the abductive
logical reasoning over knowledge graphs (KGs) is underexplored in KG
literature. In this paper, we initially and formally raise the task of
abductive logical reasoning over KGs, which involves inferring the most
probable logic hypothesis from the KGs to explain an observed entity set.
Traditional approaches use symbolic methods, like searching, to tackle the
knowledge graph problem. However, the symbolic methods are unsuitable for this
task, because the KGs are naturally incomplete, and the logical hypotheses can
be complex with multiple variables and relations. To address these issues, we
propose a generative approach to create logical expressions based on
observations. First, we sample hypothesis-observation pairs from the KG and use
supervised training to train a generative model that generates hypotheses from
observations. Since supervised learning only minimizes structural differences
between generated and reference hypotheses, higher structural similarity does
not guarantee a better explanation for observations. To tackle this issue, we
introduce the Reinforcement Learning from the Knowledge Graph (RLF-KG) method,
which minimizes the differences between observations and conclusions drawn from
the generated hypotheses according to the KG. Experimental results demonstrate
that transformer-based generative models can generate logical explanations
robustly and efficiently. Moreover, with the assistance of RLF-KG, the
generated hypothesis can provide better explanations for the observations, and
the method of supervised learning with RLF-KG achieves state-of-the-art results
on abductive knowledge graph reasoning on three widely used KGs.
- Abstract(参考訳): 帰納的推論は、知識のある推測者が観察を説明する最も可能性の高い理由を推測する論理的推論である。
しかし、知識グラフ(kgs)上の帰納的論理推論は、kg文献では未検討である。
本稿では,KGから最も確率の高い論理的仮説を推定し,観測された実体集合を説明することを含む,KGに対する帰納的論理的推論の課題を,当初かつ正式に提起する。
従来のアプローチでは、ナレッジグラフ問題に取り組むために、検索のようなシンボリックな手法を使う。
しかし、KGは自然に不完全であり、論理的仮説は複数の変数や関係と複雑であるので、記号的手法はこの問題には適さない。
これらの問題に対処するために,観測に基づく論理式作成のための生成的アプローチを提案する。
まず、kgから仮説観測ペアをサンプリングし、教師付きトレーニングを用いて観測から仮説を生成する生成モデルを訓練する。
教師あり学習は生成仮説と参照仮説の間の構造的差異を最小化するだけなので、より高い構造的類似性は観測のためのより良い説明を保証しない。
この問題に対処するために,知識グラフ(RLF-KG)法による強化学習を導入する。
実験の結果, 変圧器を用いた生成モデルでは, 論理的説明をロバストかつ効率的に生成できることがわかった。
さらに、RLF-KGの助けを借りて、生成した仮説は、観測をよりよく説明することができ、RLF-KGを用いた教師付き学習法は、広く使用されている3つのKGの帰納的知識グラフ推論に関する最先端の結果を得る。
関連論文リスト
- Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Neural-Symbolic Commonsense Reasoner with Relation Predictors [36.03049905851874]
Commonsense reasoningは、Commonsense Knowledge Graphs (CKG)から取得した一連のCommonsense factsを統合することを目的としており、通常の状況に関する結論を引き出す。
この機能はまた、新しいイベント間の関係を予測するのにそのような推論プロセスが必要な大規模なスパースナレッジグラフを持つことになる。
本稿では,大規模動的CKGの推論が可能なニューラルシンボリック推論器を提案する。
論文 参考訳(メタデータ) (2021-05-14T08:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。