論文の概要: ProgRAG: Hallucination-Resistant Progressive Retrieval and Reasoning over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2511.10240v1
- Date: Fri, 14 Nov 2025 01:41:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.762835
- Title: ProgRAG: Hallucination-Resistant Progressive Retrieval and Reasoning over Knowledge Graphs
- Title(参考訳): ProgRAG:知識グラフに対する幻覚耐性プログレッシブ検索と推論
- Authors: Minbae Park, Hyemin Yang, Jeonghyun Kim, Kunsoo Park, Hyunjoon Kim,
- Abstract要約: 大きな言語モデル(LLM)は強い推論能力を示すが、幻覚と限られた透明性に苦しむ。
本稿では,複雑な質問をサブクエストに分解し,部分的推論経路を拡張するマルチホップ知識グラフ質問応答(KGQA)フレームワークであるProgRAGを提案する。
3つのよく知られたデータセットの実験により、ProgRAGはマルチホップKGQAで既存のベースラインを上回っていることが示された。
- 参考スコア(独自算出の注目度): 2.9539912037183362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) demonstrate strong reasoning capabilities but struggle with hallucinations and limited transparency. Recently, KG-enhanced LLMs that integrate knowledge graphs (KGs) have been shown to improve reasoning performance, particularly for complex, knowledge-intensive tasks. However, these methods still face significant challenges, including inaccurate retrieval and reasoning failures, often exacerbated by long input contexts that obscure relevant information or by context constructions that struggle to capture the richer logical directions required by different question types. Furthermore, many of these approaches rely on LLMs to directly retrieve evidence from KGs, and to self-assess the sufficiency of this evidence, which often results in premature or incorrect reasoning. To address the retrieval and reasoning failures, we propose ProgRAG, a multi-hop knowledge graph question answering (KGQA) framework that decomposes complex questions into sub-questions, and progressively extends partial reasoning paths by answering each sub-question. At each step, external retrievers gather candidate evidence, which is then refined through uncertainty-aware pruning by the LLM. Finally, the context for LLM reasoning is optimized by organizing and rearranging the partial reasoning paths obtained from the sub-question answers. Experiments on three well-known datasets demonstrate that ProgRAG outperforms existing baselines in multi-hop KGQA, offering improved reliability and reasoning quality.
- Abstract(参考訳): 大きな言語モデル(LLM)は強い推論能力を示すが、幻覚と限られた透明性に苦しむ。
近年、知識グラフ(KG)を統合したKG強化LLMは、特に複雑で知識集約的なタスクにおいて、推論性能を向上させることが示されている。
しかし、これらの手法はいまだに重要な課題に直面しており、不正確な検索や推論の失敗は、関連する情報が不明瞭な長い入力コンテキストや、異なる質問タイプによって要求されるよりリッチな論理的な方向を捉えるのに苦労するコンテキスト構成によって悪化することが多い。
さらに、これらのアプローチの多くは、KGから直接証拠を回収し、この証拠の十分性を自己評価するためにLSMに依存する。
本稿では,複雑な質問をサブクエストに分解し,各サブクエストに答えることで,部分的推論経路を段階的に拡張するマルチホップ知識グラフ質問応答(KGQA)フレームワークであるProgRAGを提案する。
各ステップにおいて、外部レトリバーは、候補証拠を集め、LLMによる不確実性認識プルーニングによって精査する。
最後に、サブクエスト回答から得られる部分的推論経路の整理と再構成により、LLM推論のコンテキストを最適化する。
3つのよく知られたデータセットの実験によると、ProgRAGはマルチホップKGQAの既存のベースラインよりも優れており、信頼性と推論品質が改善されている。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Reliable Reasoning Path: Distilling Effective Guidance for LLM Reasoning with Knowledge Graphs [14.60537408321632]
大規模言語モデル(LLM)は、背景知識の不足のため、知識集約的なタスクに苦しむことが多い。
知識グラフをマイニングするためのRCPフレームワークを提案する。
また、その意義に応じて推論経路を評価し、洗練する再考モジュールも導入する。
論文 参考訳(メタデータ) (2025-06-12T09:10:32Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - Self-Reflective Planning with Knowledge Graphs: Enhancing LLM Reasoning Reliability for Question Answering [9.601307470705732]
本稿では,知識グラフと大規模言語モデルを相乗化するフレームワークである自己回帰計画(SRP)を提案する。
計画プロセスにおいて、SRPはまず、ガイドプランニングとリフレクションのための参照を検索する。
推論経路を介してKGから知識を検索した後、検索結果を判断し、回答が正しく検索されるまで推論経路を編集して反復反射を行う。
論文 参考訳(メタデータ) (2025-05-26T01:59:00Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [92.71304585906624]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
大規模言語モデル(LLM)は、しばしば誤ったあるいは幻覚的な応答を生成することで挑戦される。
本稿では,知識グラフから得られた検証可能な推論ステップに回答を固定することで,LLM応答の事実性を改善するための統合フレームワークFiDeLiSを提案する。
トレーニング不要のフレームワークである本手法は,性能の向上だけでなく,異なるベンチマークにおける現実性や解釈可能性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z) - Think-on-Graph: Deep and Responsible Reasoning of Large Language Model on Knowledge Graph [29.447300472617826]
Think-on-Graph (ToG)は、大規模言語モデル(LLM)における外部知識グラフ(KG)に対する新しいアプローチである。
ToGはKG上でビームサーチを繰り返し実行し、最も有望な推論経路を発見し、最も可能性の高い推論結果を返す。
ToGは、以前のSOTAが追加トレーニングに依存する9つのデータセットのうち6つで、全体的なSOTAを達成する。
論文 参考訳(メタデータ) (2023-07-15T03:31:38Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。