論文の概要: A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2512.19092v1
- Date: Mon, 22 Dec 2025 07:01:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.646734
- Title: A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
- Title(参考訳): 知識グラフを用いた複雑な論理推論のための大規模言語モデルに基づく手法
- Authors: Ziyan Zhang, Chao Wang, Zhuo Chen, Lei Chen, Chiyi Li, Kai Song,
- Abstract要約: 知識グラフ(KG)と一階述語論理(FOL)クエリを関連付けることは、現実世界のKGが本質的に不完全であるために困難である。
本稿では,問合せ対応のKG近傍検索と大規模言語モデル(LLM)に基づくチェーン・オブ・シークレット推論を組み合わせたアンサンブルスタイルのフレームワークであるROGを提案する。
- 参考スコア(独自算出の注目度): 16.929901817693334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning over knowledge graphs (KGs) with first-order logic (FOL) queries is challenging due to the inherent incompleteness of real-world KGs and the compositional complexity of logical query structures. Most existing methods rely on embedding entities and relations into continuous geometric spaces and answer queries via differentiable set operations. While effective for simple query patterns, these approaches often struggle to generalize to complex queries involving multiple operators, deeper reasoning chains, or heterogeneous KG schemas. We propose ROG (Reasoning Over knowledge Graphs with large language models), an ensemble-style framework that combines query-aware KG neighborhood retrieval with large language model (LLM)-based chain-of-thought reasoning. ROG decomposes complex FOL queries into sequences of simpler sub-queries, retrieves compact, query-relevant subgraphs as contextual evidence, and performs step-by-step logical inference using an LLM, avoiding the need for task-specific embedding optimization. Experiments on standard KG reasoning benchmarks demonstrate that ROG consistently outperforms strong embedding-based baselines in terms of mean reciprocal rank (MRR), with particularly notable gains on high-complexity query types. These results suggest that integrating structured KG retrieval with LLM-driven logical reasoning offers a robust and effective alternative for complex KG reasoning tasks.
- Abstract(参考訳): 知識グラフ(KG)と一階述語論理(FOL)クエリを関連付けることは、実世界のKGの本質的不完全性と論理的クエリ構造の構成的複雑さのために困難である。
既存の手法の多くは、連続的な幾何学空間への実体と関係の埋め込みと、微分可能な集合演算による問合せに頼っている。
単純なクエリパターンには有効であるが、これらのアプローチは複数の演算子、より深い推論チェーン、あるいは不均一なKGスキーマを含む複雑なクエリに一般化するのに苦労することが多い。
本稿では,問合せ対応のKG近傍検索と大規模言語モデル(LLM)に基づくチェーン・オブ・シークレット推論を組み合わせたアンサンブルスタイルのフレームワークであるROGを提案する。
ROGは複雑なFOLクエリを単純なサブクエリのシーケンスに分解し、コンテキスト証拠としてコンパクトなクエリ関連サブグラフを検索し、LCMを使用してステップバイステップの論理推論を行い、タスク固有の埋め込み最適化の必要性を回避する。
標準的なKG推論ベンチマークの実験では、ROGは平均相互ランク(MRR)において強い埋め込みベースのベースラインを一貫して上回り、特に複雑度の高いクエリタイプでは顕著に向上している。
これらの結果は、構造化KG検索とLLM駆動論理推論を統合することで、複雑なKG推論タスクに対して堅牢で効果的な代替手段が提供されることを示唆している。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Learning Federated Neural Graph Databases for Answering Complex Queries from Distributed Knowledge Graphs [53.03085605769093]
我々は、マルチソースグラフデータに対するプライバシ保護推論を促進する先駆的な体系的フレームワークであるFederated Neural Graph DataBase(FedNGDB)を学習することを提案する。
FedNGDBは、フェデレートされた学習を活用して、複数のソースにわたるグラフ表現を協調的に学習し、エンティティ間の関係を強化し、グラフデータの全体的な品質を改善する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Complex Logical Reasoning over Knowledge Graphs using Large Language Models [13.594992599230277]
知識グラフ(KG)に対する推論は、エンティティ間の関係を深く理解する必要がある課題である。
現在のアプローチは、論理的なクエリ操作のために、ベクトル空間にエンティティを埋め込むための学習ジオメトリに依存している。
本稿では,文脈的KG探索と論理的クエリ推論を組み合わせた複雑なKG推論を定式化する,言語誘導型知識グラフによる抽象推論(LARK)を提案する。
論文 参考訳(メタデータ) (2023-05-02T02:21:49Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。