論文の概要: Think Straight, Stop Smart: Structured Reasoning for Efficient Multi-Hop RAG
- arxiv url: http://arxiv.org/abs/2510.19171v1
- Date: Wed, 22 Oct 2025 02:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.9293
- Title: Think Straight, Stop Smart: Structured Reasoning for Efficient Multi-Hop RAG
- Title(参考訳): 効率的なマルチホップRAGのための構造的推論
- Authors: Jihwan Bang, Juntae Lee, Seunghan Yang, Sungha Choi,
- Abstract要約: TSSS (Think Straight, Stop Smart) は、効率的なマルチホップRAGフレームワークである。
TSSSは (i) 繰り返し発生するプレフィックスをキャッシュし、サブクエリをメインの質問にアンカーするテンプレートベースの推論を導入している。
HotpotQA、2WikiMultiHop、MuSiQueでは、TSSSはRAG-CoTアプローチの最先端の精度と競争効率を達成する。
- 参考スコア(独自算出の注目度): 24.494759581234803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop retrieval-augmented generation (RAG) is a promising strategy for complex reasoning, yet existing iterative prompting approaches remain inefficient. They often regenerate predictable token sequences at every step and rely on stochastic stopping, leading to excessive token usage and unstable termination. We propose TSSS (Think Straight, Stop Smart), a structured multi-hop RAG framework designed for efficiency. TSSS introduces (i) a template-based reasoning that caches recurring prefixes and anchors sub-queries to the main question, reducing token generation cost while promoting stable reasoning, and (ii) a retriever-based terminator, which deterministically halts reasoning once additional sub-queries collapse into repetition. This separation of structured reasoning and termination control enables both faster inference and more reliable answers. On HotpotQA, 2WikiMultiHop, and MuSiQue, TSSS achieves state-of-the-art accuracy and competitive efficiency among RAG-CoT approaches, highlighting its effectiveness in efficiency-constrained scenarios such as on-device inference.
- Abstract(参考訳): マルチホップ検索強化世代(RAG)は複雑な推論のための有望な戦略であるが、既存の反復的プロンプトアプローチは効率的ではない。
彼らはしばしば予測可能なトークンシーケンスを各ステップで再生し、確率的な停止に依存し、過剰なトークンの使用と不安定な終了につながる。
我々は,効率的なマルチホップRAGフレームワークTSSS(Think Straight, Stop Smart)を提案する。
TSSS導入
i) 定期的なプレフィックスをキャッシュし、サブクエリをメインの質問にアンカーするテンプレートベースの推論で、安定した推論を促進しながらトークン生成コストを削減し、
(ii) 追加サブクエリが繰り返し発生すると推論を決定的に停止するレトリバーベースのターミネータ。
この構造化推論と終端制御の分離は、より高速な推論とより信頼性の高い解の両方を可能にする。
HotpotQA、2WikiMultiHop、MuSiQueでは、TSSSはRAG-CoTアプローチの最先端の精度と競争効率を実現し、デバイス上の推論のような効率制約のあるシナリオにおける効率性を強調している。
関連論文リスト
- Stop-RAG: Value-Based Retrieval Control for Iterative RAG [10.378290102256534]
反復検索拡張生成(RAG)は、大規模な言語モデルで複雑なマルチホップ質問に答えることができる。
既存のメソッドは、所定の回数のイテレーションを使用するか、あるいは、より多くの検索が実際に役立つかどうかを反映しない信頼性プロキシに依存している。
そこで我々は,いつ検索を中止するかを適応的に決定する値ベースのコントローラであるStop-RAGを紹介した。
論文 参考訳(メタデータ) (2025-10-16T06:17:38Z) - Retrieval-of-Thought: Efficient Reasoning via Reusing Thoughts [6.845529733164892]
本稿では, 事前推論を構成可能な思考として再利用するRetrieval-of-Thought(RoT)を提案する。
RoTは、シーケンシャルかつセマンティックなエッジを持つ思考グラフにステップを整理し、高速な検索と柔軟な再結合を可能にする。
複数のモデルを用いた推論ベンチマークでRoTを評価し,精度,トークン使用率,レイテンシ,メモリオーバーヘッドを測定した。
論文 参考訳(メタデータ) (2025-09-26T01:17:35Z) - SmartThinker: Learning to Compress and Preserve Reasoning by Step-Level Length Control [5.224609066309358]
大規模な推論モデル(LRM)は、推論時間スケーリングを通じて顕著な推論能力を示した。
従来の研究は、強化学習中に生成されたサンプル全体の長さをペナルティ化することでこの問題を緩和しようと試みてきた。
We propose SmartThinker, a two-stage learnable framework designed to enable fine-fine control over the length of reasoning chains。
論文 参考訳(メタデータ) (2025-07-06T11:21:47Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - Fractured Chain-of-Thought Reasoning [61.647243580650446]
完全CoTと解のみのサンプリングを補間する統合推論時間戦略であるフラクチャードサンプリングを導入する。
フラクチャードサンプリングは、Pass@kとトークンの予算に対して、急激なログ線形スケーリングゲインをもたらすため、優れた精度とコストのトレードオフを一貫して達成できることを示す。
論文 参考訳(メタデータ) (2025-05-19T11:30:41Z) - Credible Plan-Driven RAG Method for Multi-Hop Question Answering [2.5772544412212985]
PDCA(Plan-Do-Check-Act)サイクルにインスパイアされた新しいフレームワークであるPAR-RAG(Plan-then-Act-and-Review RAG)を提案する。
Par-RAGは、現在の質問の意味的な複雑さにマッチした例を選び、複雑さを意識したトップダウンプランニングをガイドする。
二重検証機構は、中間誤差を評価し修正し、推論プロセスが事実上基底のままであることを保証する。
論文 参考訳(メタデータ) (2025-04-23T15:03:17Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Efficient Reasoning with Hidden Thinking [48.96945580741641]
CoT(Chain-of-Thought)推論は、複雑な問題解決能力を改善するための強力なフレームワークになっています。
我々は,隠された潜在空間におけるCoTの推論を利用した効率的な推論フレームワークであるtextbfHeima$(隠されたラマとして)を提案する。
ハイマモデルは、ゼロショットタスクの精度を維持しつつ、より高い生成効率を達成する。
論文 参考訳(メタデータ) (2025-01-31T15:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。