論文の概要: Efficient Multi-Hop Question Answering over Knowledge Graphs via LLM Planning and Embedding-Guided Search
- arxiv url: http://arxiv.org/abs/2511.19648v1
- Date: Mon, 24 Nov 2025 19:27:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.131928
- Title: Efficient Multi-Hop Question Answering over Knowledge Graphs via LLM Planning and Embedding-Guided Search
- Title(参考訳): LLM計画と埋め込み誘導探索による知識グラフに対する効率的なマルチホップ解答法
- Authors: Manil Shrestha, Edward Kim,
- Abstract要約: 知識グラフに答えるマルチホップ問題はまだ計算が難しい。
最近のアプローチでは、エンティティリンクとパスランキングの両方において、高価なLarge Language Model (LLM) の推論に依存している。
効率性と妥当性の両方に対処する2つの相補的ハイブリッドアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.744879848686032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop question answering over knowledge graphs remains computationally challenging due to the combinatorial explosion of possible reasoning paths. Recent approaches rely on expensive Large Language Model (LLM) inference for both entity linking and path ranking, limiting their practical deployment. Additionally, LLM-generated answers often lack verifiable grounding in structured knowledge. We present two complementary hybrid algorithms that address both efficiency and verifiability: (1) LLM-Guided Planning that uses a single LLM call to predict relation sequences executed via breadth-first search, achieving near-perfect accuracy (micro-F1 > 0.90) while ensuring all answers are grounded in the knowledge graph, and (2) Embedding-Guided Neural Search that eliminates LLM calls entirely by fusing text and graph embeddings through a lightweight 6.7M-parameter edge scorer, achieving over 100 times speedup with competitive accuracy. Through knowledge distillation, we compress planning capability into a 4B-parameter model that matches large-model performance at zero API cost. Evaluation on MetaQA demonstrates that grounded reasoning consistently outperforms ungrounded generation, with structured planning proving more transferable than direct answer generation. Our results show that verifiable multi-hop reasoning does not require massive models at inference time, but rather the right architectural inductive biases combining symbolic structure with learned representations.
- Abstract(参考訳): 知識グラフに答えるマルチホップ質問は、考えられる推論経路の組合せ的爆発のため、計算的に難しいままである。
最近のアプローチでは、エンティティリンクとパスランキングの両方に対して、高価なLarge Language Model(LLM)推論に依存しており、実際のデプロイメントを制限している。
加えて、LLM生成の答えは構造化知識の検証可能な基礎を欠いていることが多い。
1) LLM-Guided Planningは、1つのLCMコールを用いて、幅優先探索によって実行される関係シーケンスを予測し、ほぼ完全精度(マイクロF1 > 0.90)を達成し、すべての回答が知識グラフに根拠付けられていることを保証し、(2)軽量6.7Mパラメータエッジスコアラを介してLLMコールを完全に融合することにより、LLMコールを除去する埋め込み型ニューラルネットワークである。
知識蒸留により,大規模モデルの性能をAPIコストゼロで一致させる4Bパラメータモデルに計画能力を圧縮する。
メタQAの評価は、基底的推論が非基底的生成より一貫して優れており、構造的計画は直接応答生成よりも伝達性が高いことを示した。
この結果から, 検証可能なマルチホップ推論は, 推論時に大量のモデルを必要とするのではなく, シンボル構造と学習表現を組み合わせた適切なアーキテクチャ帰納的バイアスを必要とすることが示唆された。
関連論文リスト
- Learning to Refine: An Agentic RL Approach for Iterative SPARQL Query Construction [0.18907108368038208]
現在のメソッドでは、リアルタイム実行フィードバックに基づいてクエリを動的にデバッグするために必要なアダプティブポリシーが欠如している。
本稿では,LLMが繰り返しSPARQL構築のシーケンシャルなプロセスに対してレジリエントなポリシーを学習する,新しいエージェント・フレームワークを提案する。
結果駆動型強化学習(GRPO)によってのみ訓練されたコンパクトな3B-パラメータモデルが,このタスクの効果的なポリシを学習可能であることを示す。
論文 参考訳(メタデータ) (2025-11-14T08:44:58Z) - KG-o1: Enhancing Multi-hop Question Answering in Large Language Models via Knowledge Graph Integration [29.320693000484273]
KG-o1は、知識グラフを統合して、大規模言語モデルのマルチホップ推論能力を高める4段階のアプローチである。
簡単な2つのデータセットと複雑な2つのデータセットについて実験を行う。
その結果,KG-o1 モデルでは既存の LRM モデルと比較して,全タスクにおいて優れた性能を示した。
論文 参考訳(メタデータ) (2025-08-12T04:29:10Z) - DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Logic Query of Thoughts: Guiding Large Language Models to Answer Complex Logic Queries with Knowledge Graphs [102.37496443389203]
LGOT(Logic-Query-of-Thoughts)は知識グラフ推論と大規模言語モデルを組み合わせた最初の方法である。
実験の結果,ChatGPTよりも20%向上した。
論文 参考訳(メタデータ) (2024-03-17T17:01:45Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。