論文の概要: PruneRAG: Confidence-Guided Query Decomposition Trees for Efficient Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2601.11024v1
- Date: Fri, 16 Jan 2026 06:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.378371
- Title: PruneRAG: Confidence-Guided Query Decomposition Trees for Efficient Retrieval-Augmented Generation
- Title(参考訳): PruneRAG: 効率的な検索拡張生成のための信頼誘導クエリ分解木
- Authors: Shuguang Jiao, Xinyu Xiao, Yunfan Wei, Shuhan Qi, Chengkai Huang, Quan Z. Michael Sheng, Lina Yao,
- Abstract要約: PruneRAGは、安定かつ効率的な推論を行うために構造化されたクエリ分解ツリーを構築する。
我々は,ゴールデンエビデンスを回収するが正しく使用しない事例を定量化するための指標として,エビデンス予測率を定義した。
- 参考スコア(独自算出の注目度): 19.832367438725306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has become a powerful framework for enhancing large language models in knowledge-intensive and reasoning tasks. However, as reasoning chains deepen or search trees expand, RAG systems often face two persistent failures: evidence forgetting, where retrieved knowledge is not effectively used, and inefficiency, caused by uncontrolled query expansions and redundant retrieval. These issues reveal a critical gap between retrieval and evidence utilization in current RAG architectures. We propose PruneRAG, a confidence-guided query decomposition framework that builds a structured query decomposition tree to perform stable and efficient reasoning. PruneRAG introduces three key mechanisms: adaptive node expansion that regulates tree width and depth, confidence-guided decisions that accept reliable answers and prune uncertain branches, and fine-grained retrieval that extracts entity-level anchors to improve retrieval precision. Together, these components preserve salient evidence throughout multi-hop reasoning while significantly reducing retrieval overhead. To better analyze evidence misuse, we define the Evidence Forgetting Rate as a metric to quantify cases where golden evidence is retrieved but not correctly used. Extensive experiments across various multi-hop QA benchmarks show that PruneRAG achieves superior accuracy and efficiency over state-of-the-art baselines.
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、知識集約および推論タスクにおいて、大規模言語モデルを強化する強力なフレームワークとなっている。
しかしながら、推論チェーンが深くなったり、探索木が拡大するにつれて、RAGシステムは2つの永続的な障害に直面している:証拠の忘れ、検索された知識が効果的に使われない、そして、制御されていないクエリ拡張と冗長な検索によって引き起こされる非効率である。
これらの問題は、現在のRAGアーキテクチャにおける検索とエビデンス利用の間に重要なギャップがあることを示している。
本稿では,信頼性誘導型クエリ分解フレームワークPruneRAGを提案する。
PruneRAGは、木の幅と深さを調節する適応ノード展開、信頼性の高い回答と不確実な分岐を受け入れる信頼誘導決定、そして検索精度を向上させるためにエンティティレベルのアンカーを抽出するきめ細かい検索という3つの主要なメカニズムを導入している。
これらのコンポーネントは、マルチホップ推論を通じて健全なエビデンスを保持しながら、検索オーバーヘッドを著しく低減する。
証拠の誤用をよりよく分析するために,証拠収集率をゴールデンエビデンスを回収するが正しく使用しない事例の定量化指標として定義する。
様々なマルチホップQAベンチマークによる大規模な実験により、PruneRAGは最先端のベースラインよりも精度と効率が優れていることが示された。
関連論文リスト
- Chaining the Evidence: Robust Reinforcement Learning for Deep Search Agents with Citation-Aware Rubric Rewards [60.0970117192627]
強化学習(Reinforcement Learning, RL)は, LLMに基づくディープサーチエージェントの強化に重要な手法である。
既存のアプローチは主にバイナリ結果の報酬に依存しており、エージェントの推論プロセスの包括性と事実性を捉えていない。
ディープサーチエージェントのための微粒化報酬フレームワークである textbfCitation-aware RL Rewards (CaRR) を提案する。
論文 参考訳(メタデータ) (2026-01-09T18:57:53Z) - Multi-hop Reasoning via Early Knowledge Alignment [68.28168992785896]
アーリー・ナレッジ・アライメント(EKA)は、大規模言語モデルと文脈的に関連づけられた知識を整合させることを目的としている。
EKAは検索精度を大幅に改善し、カスケードエラーを低減し、性能と効率を向上する。
EKAは、大規模モデルにシームレスにスケールする、多目的でトレーニング不要な推論戦略として有効である。
論文 参考訳(メタデータ) (2025-12-23T08:14:44Z) - Abductive Inference in Retrieval-Augmented Language Models: Generating and Validating Missing Premises [0.0]
本稿では,帰納的推論をLLMに組み込むフレームワークを提案する。
帰納的推論とマルチホップQAベンチマークの実験結果から,本手法は解答精度と帰納的忠実度の両方を改善することが示された。
この研究は、RAGシステムの堅牢性と説明可能性を高めるための有望な方向として、帰納的推論を強調している。
論文 参考訳(メタデータ) (2025-11-06T03:37:24Z) - FAIR-RAG: Faithful Adaptive Iterative Refinement for Retrieval-Augmented Generation [0.0]
本稿では、標準的なRAGパイプラインを動的にエビデンス駆動の推論プロセスに変換する新しいエージェントフレームワークであるFAIR-RAGを紹介する。
本稿では,HotpotQA,2WikiMultiHopQA,MusiQueなどのマルチホップQAベンチマーク実験を行う。
我々の研究は、高度なRAGシステムにおける信頼性と正確な推論を解き明かすためには、明確なギャップ分析による構造化されたエビデンス駆動の洗練プロセスが不可欠であることを示す。
論文 参考訳(メタデータ) (2025-10-25T15:59:33Z) - Structure-Augmented Reasoning Generation [23.587337743113228]
Retrieval-Augmented Generation (RAG) システムは、構造化されていない文書コレクションから情報を暗黙的に接続するために、大きな言語モデルに依存するため、複雑なマルチホップ推論では失敗する。
この基本的な制限は、コヒーレントな推論連鎖を可能にする複雑な関係を認識するのではなく、検索された通路を独立した文脈として扱うことに起因している。
SARGは検索後のフレームワークであり、明示的な推論構造を具体化して従来のRAGパイプラインを変換する。
論文 参考訳(メタデータ) (2025-06-10T02:22:32Z) - ClueAnchor: Clue-Anchored Knowledge Reasoning Exploration and Optimization for Retrieval-Augmented Generation [82.54090885503287]
Retrieval-Augmented Generationは、外部知識を持つ大規模言語モデルを拡張して、事実性を改善する。
既存のRAGシステムは、忠実で解釈可能な推論をサポートするために必要な重要な手がかりを抽出して統合することができない。
本稿では,手掛かり付き推論探索と最適化によるRAG向上のための新しいフレームワークであるClueAnchorを提案する。
論文 参考訳(メタデータ) (2025-05-30T09:18:08Z) - CDF-RAG: Causal Dynamic Feedback for Adaptive Retrieval-Augmented Generation [3.8808821719659763]
適応検索拡張生成(CDF-RAG)のための因果動的フィードバックを導入する。
CDF-RAGは、クエリを反復的に洗練し、構造化因果グラフを検索し、相互接続された知識ソース間のマルチホップ因果推論を可能にする。
我々は,CDF-RAGを4つの多様なデータセット上で評価し,既存のRAG法よりも応答精度と因果正性を向上させる能力を示した。
論文 参考訳(メタデータ) (2025-04-17T01:15:13Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。