論文の概要: Exemplar-Guided Planing: Enhanced LLM Agent for KGQA
- arxiv url: http://arxiv.org/abs/2510.15283v1
- Date: Fri, 17 Oct 2025 03:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.460259
- Title: Exemplar-Guided Planing: Enhanced LLM Agent for KGQA
- Title(参考訳): 先導型プランニング:KGQA用拡張LDMエージェント
- Authors: Jingao Xu, Shuoyoucheng Ma, Xin Song, Rong Jiang, Hongkui Tu, Bin Zhou,
- Abstract要約: 対話型エージェントとしての大規模言語モデル(LLM)は知識グラフ質問回答(KGQA)において有望であることを示す
LLMは自然言語クエリと構造化知識グラフ表現の間の意味的ギャップにしばしば苦労する。
我々は,KGQA のための LLM エージェントの計画能力を向上する新しいフレームワーク Exemplar-Guided Planning (EGP) を提案する。
- 参考スコア(独自算出の注目度): 15.06175564601295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) as interactive agents show significant promise in Knowledge Graph Question Answering (KGQA) but often struggle with the semantic gap between natural language queries and structured knowledge graph (KG) representations. This leads to suboptimal planning and inefficient exploration on KG, while training-free approaches often underutilize valuable reasoning patterns in training data. To address these limitations, we propose a novel framework, Exemplar-Guided Planning (EGP), which enhances the planning capabilities of LLM agents for KGQA. EGP first preprocesses the training set questions via entity templating to normalize semantic variations. It then retrieves highly similar exemplary questions and their successful reasoning paths from this preprocessed set using semantic embeddings and an efficient FAISS index. These retrieved exemplars dynamically guide the LLM's planning process in two key phases: (1) Task Decomposition, by aligning generated sub-objectives with proven reasoning steps, and (2) Relation Exploration, by providing high-quality auxiliary information to improve relation pruning accuracy. Additionally, we introduce a Smart Lookahead mechanism during relation exploration to improve efficiency by preemptively exploring promising paths and potentially terminating exploration earlier. We apply EGP to the Plan-on-Graph (PoG) framework, termed PoG-EGP. Extensive experiments on two real-world KGQA datasets, WebQSP and CWQ, demonstrate that PoG-EGP significantly improves over the baseline PoG system and other compared methods.
- Abstract(参考訳): 対話型エージェントとしての大規模言語モデル(LLM)は、知識グラフ質問回答(KGQA)において大きな可能性を秘めているが、自然言語クエリと構造化知識グラフ(KG)表現のセマンティックギャップに悩むことが多い。
これはKGの最適でない計画と非効率な探索につながりますが、トレーニングなしのアプローチでは、トレーニングデータに価値ある推論パターンが使われません。
これらの制約に対処するため、我々は、KGQAのためのLLMエージェントの計画能力を高める新しいフレームワーク、Exemplar-Guided Planning (EGP)を提案する。
EGPは、セマンティックなバリエーションを正規化するエンティティテンプレートを通じて、トレーニングセットの質問を前処理する。
その後、セマンティック埋め込みと効率的なFAISSインデックスを使用して、非常に類似した模範的な質問と、その成功した推論パスをこの前処理セットから検索する。
これらの抽出した例は,(1) 生成したサブオブジェクトを実証された推論ステップに整列させることによるタスク分解と,(2) 関連探索(Relation Exploration) という2つの重要な段階において,LCMの計画過程を動的にガイドする。
さらに,関係探索中のスマートルックヘッド機構を導入し,将来性のある経路を事前に探索し,探索を早期に終了させることにより効率を向上する。
我々は、Plan-on-Graph(PoG)フレームワークにEGPを適用し、PoG-EGPと呼ぶ。
WebQSPとCWQの2つの実世界のKGQAデータセットに対する大規模な実験は、PoG-EGPがベースラインのPoGシステムや他の比較手法よりも大幅に改善されていることを示した。
関連論文リスト
- Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Beyond Single Pass, Looping Through Time: KG-IRAG with Iterative Knowledge Retrieval [18.96570718233786]
GraphRAGは、外部知識を必要とするタスクにおいて、LLM(Large Language Models)の性能を高めるのに非常に効果的であることが証明されている。
本稿では,KGと反復推論を統合する新しいフレームワークである知識グラフに基づく反復検索生成(KG-IRAG)を提案する。
KG-IRAGのパフォーマンスを評価するために、3つの新しいデータセットが作成され、従来のRAGアプリケーションを超える可能性を示している。
論文 参考訳(メタデータ) (2025-03-18T13:11:43Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。