論文の概要: RFKG-CoT: Relation-Driven Adaptive Hop-count Selection and Few-Shot Path Guidance for Knowledge-Aware QA
- arxiv url: http://arxiv.org/abs/2512.15219v1
- Date: Wed, 17 Dec 2025 09:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.914125
- Title: RFKG-CoT: Relation-Driven Adaptive Hop-count Selection and Few-Shot Path Guidance for Knowledge-Aware QA
- Title(参考訳): RFKG-CoT:知識対応QAのための関係駆動型適応ホップ数選択とFew-Shotパスガイダンス
- Authors: Chao Zhang, Minghan Li, Tianrui Lv, Guodong Zhou,
- Abstract要約: 大規模言語モデル(LLM)は、パラメトリックな知識制限のため、知識集約型QAにおいて幻覚を引き起こすことが多い。
剛性ホップ数セレクタをリレーショナル・アダプティブ・ホップ数セレクタに置き換えるRFKG-CoTを提案する。
4つのKGQAベンチマークの実験では、RFKG-CoTはKG-CoTよりも14.7 pp (Llama2-7B on WebQSP)の精度が向上した。
- 参考スコア(独自算出の注目度): 21.760917997629317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) often generate hallucinations in knowledge-intensive QA due to parametric knowledge limitations. While existing methods like KG-CoT improve reliability by integrating knowledge graph (KG) paths, they suffer from rigid hop-count selection (solely question-driven) and underutilization of reasoning paths (lack of guidance). To address this, we propose RFKG-CoT: First, it replaces the rigid hop-count selector with a relation-driven adaptive hop-count selector that dynamically adjusts reasoning steps by activating KG relations (e.g., 1-hop for direct "brother" relations, 2-hop for indirect "father-son" chains), formalized via a relation mask. Second, it introduces a few-shot in-context learning path guidance mechanism with CoT (think) that constructs examples in a "question-paths-answer" format to enhance LLMs' ability to understand reasoning paths. Experiments on four KGQA benchmarks show RFKG-CoT improves accuracy by up to 14.7 pp (Llama2-7B on WebQSP) over KG-CoT. Ablations confirm the hop-count selector and the path prompt are complementary, jointly transforming KG evidence into more faithful answers.
- Abstract(参考訳): 大規模言語モデル(LLM)は、パラメトリックな知識制限のため、知識集約型QAにおいて幻覚を引き起こすことが多い。
KG-CoTのような既存の手法は知識グラフ(KG)パスを統合することで信頼性を向上させるが、それらは厳密なホップ数選択(質問駆動)と推論パスの非活用(ガイダンスの欠如)に悩まされている。
まず、KG関係を活性化することで推論ステップを動的に調整する(例えば、直接的な「兄弟」関係の1ホップ、2ホップ間接的な「父子」連鎖の2ホップなど)関係マスクを介して形式化した、厳密なホップ数セレクタを、関係駆動型適応ホップ数セレクタに置き換える。
第二に、CoT(英語版)による数発のコンテキスト内学習パス誘導機構を導入し、LLMが推論パスを理解する能力を高めるために、"クエクション・パス・アンサー"形式でサンプルを構築する。
4つのKGQAベンチマークの実験では、RFKG-CoTはKG-CoTよりも14.7 pp (Llama2-7B on WebQSP)の精度が向上した。
アブレーションはホップ数セレクタとパスプロンプトが相補的であることを確認し、KG証拠をより忠実な解に変換する。
関連論文リスト
- Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning [18.9814789695716]
知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
我々は、強化学習(RL)によるエージェントKG検索増強世代(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
論文 参考訳(メタデータ) (2025-09-30T15:14:24Z) - PGDA-KGQA: A Prompt-Guided Generative Framework with Multiple Data Augmentation Strategies for Knowledge Graph Question Answering [3.8623708225544755]
知識グラフ質問回答(KGQA)は自然言語処理において重要な課題である。
PGDA-KGQA は,KGQA のための複数のデータ拡張戦略を備えた,プロンプト誘導型生成フレームワークである。
実験により、PGDA-KGQAは標準KGQAの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-06-11T05:56:03Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [92.71304585906624]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Improving Embedded Knowledge Graph Multi-hop Question Answering by
introducing Relational Chain Reasoning [8.05076085499457]
知識ベース質問回答(KBQA)は、トピックエンティティと回答の間の推論を識別することで、知識ベース(KB)からのユーザ要求に答える。
KBQA の複素分岐タスクとして、マルチホップ KGQA は構造化された KG に保存された多重ホップ関係鎖の推論を必要とする。
論文 参考訳(メタデータ) (2021-10-25T06:53:02Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。