論文の概要: ROG: Retrieval-Augmented LLM Reasoning for Complex First-Order Queries over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2602.02382v1
- Date: Mon, 02 Feb 2026 17:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.332368
- Title: ROG: Retrieval-Augmented LLM Reasoning for Complex First-Order Queries over Knowledge Graphs
- Title(参考訳): ROG: 知識グラフ上の複雑な1次クエリに対する検索拡張LDM推論
- Authors: Ziyan Zhang, Chao Wang, Zhuo Chen, Chiyi Li, Kai Song,
- Abstract要約: 本稿では,クエリを意識した近傍検索と大規模言語モデル(LLM)の連鎖推論を組み合わせた検索拡張フレームワークを提案する。
ROGはマルチ演算クエリを単一演算サブクエリのシーケンスに分解する。
中間回答セットはステップ間でキャッシュされ再利用され、深い推論チェーンの一貫性が向上します。
- 参考スコア(独自算出の注目度): 14.25887925588904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Answering first-order logic (FOL) queries over incomplete knowledge graphs (KGs) is difficult, especially for complex query structures that compose projection, intersection, union, and negation. We propose ROG, a retrieval-augmented framework that combines query-aware neighborhood retrieval with large language model (LLM) chain-of-thought reasoning. ROG decomposes a multi-operator query into a sequence of single-operator sub-queries and grounds each step in compact, query-relevant neighborhood evidence. Intermediate answer sets are cached and reused across steps, improving consistency on deep reasoning chains. This design reduces compounding errors and yields more robust inference on complex and negation-heavy queries. Overall, ROG provides a practical alternative to embedding-based logical reasoning by replacing learned operators with retrieval-grounded, step-wise inference. Experiments on standard KG reasoning benchmarks show consistent gains over strong embedding-based baselines, with the largest improvements on high-complexity and negation-heavy query types.
- Abstract(参考訳): 不完全知識グラフ(KG)上の一階述語論理(FOL)クエリの解答は、特に射影、交叉、結合、否定を構成する複雑なクエリ構造において困難である。
本稿では,クエリ対応近傍検索と大規模言語モデル(LLM)の連鎖推論を組み合わせた検索拡張フレームワークROGを提案する。
ROGは、マルチオペレータークエリを単一演算サブクエリのシーケンスに分解し、各ステップをコンパクトでクエリに関連のある近隣のエビデンスでグラウンド化する。
中間回答セットはステップ間でキャッシュされ再利用され、深い推論チェーンの一貫性が向上します。
この設計は複雑なエラーを減らし、複雑で否定性の高いクエリに対するより堅牢な推論をもたらす。
ROGは、学習した演算子を検索基底のステップワイズ推論に置き換えることで、埋め込みベースの論理推論に代わる実用的な代替手段を提供する。
標準KG推論ベンチマークの実験では、強い埋め込みベースのベースラインよりも一貫したゲインを示し、高い複雑さと否定量の多いクエリタイプに対する最大の改善がある。
関連論文リスト
- A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs [16.929901817693334]
知識グラフ(KG)と一階述語論理(FOL)クエリを関連付けることは、現実世界のKGが本質的に不完全であるために困難である。
本稿では,問合せ対応のKG近傍検索と大規模言語モデル(LLM)に基づくチェーン・オブ・シークレット推論を組み合わせたアンサンブルスタイルのフレームワークであるROGを提案する。
論文 参考訳(メタデータ) (2025-12-22T07:01:05Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。