論文の概要: The Reasoning Bottleneck in Graph-RAG: Structured Prompting and Context Compression for Multi-Hop QA
- arxiv url: http://arxiv.org/abs/2603.14045v1
- Date: Sat, 14 Mar 2026 17:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.568014
- Title: The Reasoning Bottleneck in Graph-RAG: Structured Prompting and Context Compression for Multi-Hop QA
- Title(参考訳): Graph-RAGにおける推論ボットネック:マルチホップQAのための構造化プロンプトとコンテキスト圧縮
- Authors: Yasaman Zarinkia, Venkatesh Srinivasan, Alex Thomo,
- Abstract要約: グラフRAGシステムは、文書を知識グラフにインデックス化することで、強力なマルチホップ質問応答を実現するが、強力な検索は強力な回答を保証しない。
検索された文脈では77%から91%の質問が金の答えを持っているが、精度は35%から78%に過ぎず、エラーの73%から84%が失敗の原因となっている。
i) SPARQLチェーン・オブ・シークレット・プロンプトは,質問をエンティティ・リレーショナル・コンテキストと整合したトリプル・パターンのクエリに分解し,(ii)グラフウォーク圧縮を行う。
- 参考スコア(独自算出の注目度): 4.190399245544758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph-RAG systems achieve strong multi-hop question answering by indexing documents into knowledge graphs, but strong retrieval does not guarantee strong answers. Evaluating KET-RAG, a leading Graph-RAG system, on three multi-hop QA benchmarks (HotpotQA, MuSiQue, 2WikiMultiHopQA), we find that 77% to 91% of questions have the gold answer in the retrieved context, yet accuracy is only 35% to 78%, and 73% to 84% of errors are reasoning failures. We propose two augmentations: (i) SPARQL chain-of-thought prompting, which decomposes questions into triple-pattern queries aligned with the entity-relationship context, and (ii) graph-walk compression, which compresses the context by ~60% via knowledge-graph traversal with no LLM calls. SPARQL CoT improves accuracy by +2 to +14 pp; graph-walk compression adds +6 pp on average when paired with structured prompting on smaller models. Surprisingly, we show that, with question-type routing, a fully augmented budget open-weight Llama-8B model matches or exceeds the unaugmented Llama-70B baseline on all three benchmarks at ~12x lower cost. A replication on LightRAG confirms that our augmentations transfer across Graph-RAG systems.
- Abstract(参考訳): グラフRAGシステムは、文書を知識グラフにインデックス化することで、強力なマルチホップ質問応答を実現するが、強力な検索は強力な回答を保証しない。
3つのマルチホップQAベンチマーク(HotpotQA, MuSiQue, 2WikiMultiHopQA)で、主要なグラフ-RAGシステムであるKET-RAGを評価すると、質問の77%から91%が検索された文脈で金の答えを持っているが、精度は35%から78%、エラーの73%から84%が失敗していることがわかった。
私たちは2つの拡張を提案します。
i) SPARQLチェーン・オブ・シークレットプロンプトは、質問をエンティティ・リレーショナル・コンテキストに沿ったトリプル・パターンのクエリに分解し、
(ii) LLMコールのない知識グラフトラバーサルによりコンテキストを60%圧縮するグラフウォーク圧縮。
SPARQL CoT の精度は +2 から +14 pp に向上する。
意外なことに、疑問型ルーティングでは、完全に拡張された予算のオープンウェイトなLlama-8Bモデルが、3つのベンチマークのすべてで、約12倍のコストで、未拡張のLlama-70Bベースラインを超えている。
LightRAGのレプリケーションでは、Graph-RAGシステム間の拡張転送が確認できます。
関連論文リスト
- TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Interpretable Question Answering with Knowledge Graphs [0.19695349076827803]
本稿では,知識グラフ検索のみで動作する質問応答システムを提案する。
知識グラフのクエリから取得したエンティティ関係エッジをパラフレーズ化するために、小さなパラフレーズモデルが使用される。
この研究はCRAGベンチマークでLCM-as-a-judgeを用いて評価され、71.9%と54.4%の精度が得られた。
論文 参考訳(メタデータ) (2025-10-22T02:36:35Z) - SUBQRAG: Sub-Question Driven Dynamic Graph RAG [34.20328335590984]
SubQRAGは、推論深度を高めるサブクエスト駆動のフレームワークである。
SubQRAGは複雑な質問を検証可能なサブクエストの順序付けられた連鎖に分解する。
3つのマルチホップQAベンチマークの実験では、SubQRAGが一貫性と大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-10-09T02:55:58Z) - StepChain GraphRAG: Reasoning Over Knowledge Graphs for Multi-Hop Question Answering [32.34277555394503]
本稿では,BFS(Breadth-First Search)推論フローと質問分解を結合するフレームワークであるStepChain GraphRAGを紹介する。
提案手法はまず,コーパス上のグローバルインデックスを構築する。推測時には,検索したパスのみをオンザフライで解析して知識グラフを作成する。
MuSiQue、2WikiMultiHopQA、HotpotQAの実験では、StepChain GraphRAGが最先端のExact MatchとF1スコアを達成した。
論文 参考訳(メタデータ) (2025-10-03T09:06:37Z) - Query-Centric Graph Retrieval Augmented Generation [15.423162448800134]
QCG-RAGはクエリ中心のグラフRAGフレームワークで、クエリ粒度インデックスとマルチホップチャンク検索を可能にする。
LiHuaWorldとMultiHop-RAGの実験では、QCG-RAGは問合せ精度において、チャンクベースおよびグラフベースのRAG法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-09-25T14:35:44Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation [54.136509061542775]
マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-14T08:16:47Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。