論文の概要: Reason-Align-Respond: Aligning LLM Reasoning with Knowledge Graphs for KGQA
- arxiv url: http://arxiv.org/abs/2505.20971v1
- Date: Tue, 27 May 2025 10:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.565862
- Title: Reason-Align-Respond: Aligning LLM Reasoning with Knowledge Graphs for KGQA
- Title(参考訳): 推論応答:KGQAのための知識グラフを用いたLLM推論のアライメント
- Authors: Xiangqing Shen, Fanfan Wang, Rui Xia,
- Abstract要約: 本稿では、推論と知識グラフを統合するフレームワークであるReason-Align-Respond(RAR)を紹介する。
RARは知識グラフに整合した高品質で解釈可能な推論チェーンを生成する。
RARは強いゼロショットの一般化能力を示し、推論中に計算効率を維持する。
- 参考スコア(独自算出の注目度): 25.658206998291917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have demonstrated remarkable capabilities in complex reasoning tasks, yet they often suffer from hallucinations and lack reliable factual grounding. Meanwhile, knowledge graphs (KGs) provide structured factual knowledge but lack the flexible reasoning abilities of LLMs. In this paper, we present Reason-Align-Respond (RAR), a novel framework that systematically integrates LLM reasoning with knowledge graphs for KGQA. Our approach consists of three key components: a Reasoner that generates human-like reasoning chains, an Aligner that maps these chains to valid KG paths, and a Responser that synthesizes the final answer. We formulate this process as a probabilistic model and optimize it using the Expectation-Maximization algorithm, which iteratively refines the reasoning chains and knowledge paths. Extensive experiments on multiple benchmarks demonstrate the effectiveness of RAR, achieving state-of-the-art performance with Hit@1 scores of 93.3% and 91.0% on WebQSP and CWQ respectively. Human evaluation confirms that RAR generates high-quality, interpretable reasoning chains well-aligned with KG paths. Furthermore, RAR exhibits strong zero-shot generalization capabilities and maintains computational efficiency during inference.
- Abstract(参考訳): LLMは複雑な推論タスクにおいて顕著な能力を示してきたが、幻覚に悩まされ、信頼できる事実的根拠が欠如していることが多い。
一方、知識グラフ(KG)は構造化された事実知識を提供するが、LLMの柔軟な推論能力は欠如している。
本稿では,LLM推論をKGQAの知識グラフと体系的に統合する新しいフレームワークであるReason-Align-Respond(RAR)を提案する。
我々のアプローチは、人間のような推論チェーンを生成するReasonerと、これらのチェーンを有効なKGパスにマッピングするAlignerと、最終回答を合成するReasonerの3つの重要なコンポーネントで構成されています。
本稿では,この過程を確率モデルとして定式化し,仮説連鎖と知識経路を反復的に洗練する期待最大化アルゴリズムを用いて最適化する。
複数のベンチマークでの大規模な実験は、WebQSPとCWQでそれぞれ93.3%と91.0%のHit@1スコアで最先端のパフォーマンスを達成するRARの有効性を実証している。
人間による評価は、RARが高品質で解釈可能な推論連鎖をKG経路とよく一致させることを確認する。
さらに、RARは強力なゼロショット一般化能力を示し、推論中に計算効率を維持する。
関連論文リスト
- Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Dual Reasoning: A GNN-LLM Collaborative Framework for Knowledge Graph Question Answering [38.31983923708175]
我々は、知識グラフ(KGs)の明示的推論のために、グラフニューラルネットワーク(GNN)に基づく外部システムを統合する新しいフレームワークであるDual-Reasoningを提案する。
我々は,DualRが高効率と解釈性を維持しつつ,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-06-03T09:38:28Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。