論文の概要: Stop-RAG: Value-Based Retrieval Control for Iterative RAG
- arxiv url: http://arxiv.org/abs/2510.14337v1
- Date: Thu, 16 Oct 2025 06:17:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.742863
- Title: Stop-RAG: Value-Based Retrieval Control for Iterative RAG
- Title(参考訳): Stop-RAG:反復RAGのための値ベース検索制御
- Authors: Jaewan Park, Solbee Cho, Jay-Yoon Lee,
- Abstract要約: 反復検索拡張生成(RAG)は、大規模な言語モデルで複雑なマルチホップ質問に答えることができる。
既存のメソッドは、所定の回数のイテレーションを使用するか、あるいは、より多くの検索が実際に役立つかどうかを反映しない信頼性プロキシに依存している。
そこで我々は,いつ検索を中止するかを適応的に決定する値ベースのコントローラであるStop-RAGを紹介した。
- 参考スコア(独自算出の注目度): 10.378290102256534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Iterative retrieval-augmented generation (RAG) enables large language models to answer complex multi-hop questions, but each additional loop increases latency, costs, and the risk of introducing distracting evidence, motivating the need for an efficient stopping strategy. Existing methods either use a predetermined number of iterations or rely on confidence proxies that poorly reflect whether more retrieval will actually help. We cast iterative RAG as a finite-horizon Markov decision process and introduce Stop-RAG, a value-based controller that adaptively decides when to stop retrieving. Trained with full-width forward-view Q($\lambda$) targets from complete trajectories, Stop-RAG learns effective stopping policies while remaining compatible with black-box APIs and existing pipelines. On multi-hop question-answering benchmarks, Stop-RAG consistently outperforms both fixed-iteration baselines and prompting-based stopping with LLMs. These results highlight adaptive stopping as a key missing component in current agentic systems, and demonstrate that value-based control can improve the accuracy of RAG systems.
- Abstract(参考訳): 反復的検索拡張生成(RAG)は、大規模な言語モデルで複雑なマルチホップ質問に答えることができるが、それぞれの追加ループは遅延、コスト、気を散らす証拠の導入リスクを増大させ、効率的な停止戦略の必要性を動機付けている。
既存のメソッドは、所定の回数のイテレーションを使用するか、あるいは、より多くの検索が実際に役立つかどうかを反映しない信頼性プロキシに依存している。
我々は、有限水平マルコフ決定プロセスとして反復RAGをキャストし、いつ検索を中止するかを適応的に決定する値ベースのコントローラであるStop-RAGを紹介した。
フル幅のフォワードビュー Q($\lambda$)ターゲットを完全なトラジェクトリからトレーニングしたStop-RAGは、ブラックボックスAPIや既存のパイプラインとの互換性を維持しながら、効果的な停止ポリシーを学習する。
マルチホップ質問答えベンチマークでは、Stop-RAGは固定化ベースラインとLLMによるプロンプトベースの停止の両方を一貫して上回っている。
これらの結果は、現在のエージェントシステムにおいて重要な欠落要素である適応停止を強調し、値に基づく制御がRAGシステムの精度を向上させることを実証する。
関連論文リスト
- SPARC-RAG: Adaptive Sequential-Parallel Scaling with Context Management for Retrieval-Augmented Generation [8.00733338569737]
Retrieval-Augmented Generationは、大規模な言語モデルのアウトプットを外部のエビデンスに根拠付けている。
最近の研究は、2つの相補的な次元に沿って推論時にRAGをスケールする。
逐次的および並列な推論時間スケーリングを協調するマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-22T20:18:55Z) - Controllable LLM Reasoning via Sparse Autoencoder-Based Steering [66.36947132041657]
大規模推論モデル(LRM)は、人間のような認知的推論戦略を示す。
現在、推論戦略はLEM自身によって自律的に選択されている。
既存の手法は、LRMの隠蔽状態における概念的絡み合いによって、きめ細かい推論戦略を制御するのに苦労している。
論文 参考訳(メタデータ) (2026-01-07T05:26:26Z) - Q-RAG: Long Context Multi-step Retrieval via Value-based Embedder Training [50.37345200692884]
強化学習(RL)を用いた多段階探索のための細粒度埋め込みモデルQ-RAGを提案する。
Q-RAGは、オープンドメイン質問応答のための既存のマルチステップ検索方法に代わる、競合的でリソース効率のよい代替手段を提供する。
論文 参考訳(メタデータ) (2025-11-10T17:31:02Z) - SBASH: a Framework for Designing and Evaluating RAG vs. Prompt-Tuned LLM Honeypots [0.0]
ハニーポット(Honeypots)は、価値ある脅威情報を集めたり、攻撃者を生産システムから遠ざけるために使われるデコイシステムである。
本稿では,軽量なローカルLCMを用いてデータ保護問題を管理するシステムベース注意型シェルハニーポットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-24T13:41:52Z) - Think Straight, Stop Smart: Structured Reasoning for Efficient Multi-Hop RAG [24.494759581234803]
TSSS (Think Straight, Stop Smart) は、効率的なマルチホップRAGフレームワークである。
TSSSは (i) 繰り返し発生するプレフィックスをキャッシュし、サブクエリをメインの質問にアンカーするテンプレートベースの推論を導入している。
HotpotQA、2WikiMultiHop、MuSiQueでは、TSSSはRAG-CoTアプローチの最先端の精度と競争効率を達成する。
論文 参考訳(メタデータ) (2025-10-22T02:09:23Z) - Evaluating Retrieval-Augmented Generation Systems on Unanswerable, Uncheatable, Realistic, Multi-hop Queries [53.99620546358492]
実世界のユースケースでは、複雑なクエリを持つRAGシステムが存在し、関連する情報がコーパスから欠落したり、不完全であったりすることが多い。
既存のRAGベンチマークは、マルチホップやスコープ外の質問に対して、現実的なタスクの複雑さを反映することはめったにない。
un$underlinec$heatable, $underliner$ealistic, $underlineu$nanswerable, $underlinem$ulti-hopの自動生成のための最初のパイプラインを提示する。
論文 参考訳(メタデータ) (2025-10-13T21:38:04Z) - Fast or Better? Balancing Accuracy and Cost in Retrieval-Augmented Generation with Flexible User Control [52.405085773954596]
Retrieval-Augmented Generationは、大規模な言語モデル幻覚を緩和するための強力なアプローチとして登場した。
既存のRAGフレームワークは、しばしば無差別に検索を適用し、非効率な再検索につながる。
本稿では,精度・コストのトレードオフを動的に調整できる新しいユーザ制御可能なRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:56:20Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - ChunkRAG: Novel LLM-Chunk Filtering Method for RAG Systems [2.8692611791027893]
Retrieval-Augmented Generation (RAG) システムは、無関係またはゆるい関連情報の検索によって不正確な応答を生成する。
チャンクレベルで取得した情報を評価・フィルタリングすることでRAGシステムを強化するフレームワークであるChunkRAGを提案する。
論文 参考訳(メタデータ) (2024-10-25T14:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。