論文の概要: REAP: Enhancing RAG with Recursive Evaluation and Adaptive Planning for Multi-Hop Question Answering
- arxiv url: http://arxiv.org/abs/2511.09966v1
- Date: Fri, 14 Nov 2025 01:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.609537
- Title: REAP: Enhancing RAG with Recursive Evaluation and Adaptive Planning for Multi-Hop Question Answering
- Title(参考訳): REAP:マルチホップ質問応答のための再帰的評価と適応計画によるRAGの強化
- Authors: Yijie Zhu, Haojie Zhou, Wanting Hong, Tailin Liu, Ning Wang,
- Abstract要約: サブタスクプランナー(SP)とファクトエクストラクタ(FE)が開発されている。
SPはグローバルな視点を維持し、全体的な推論方向を導き、タスク状態を評価する。
FEは、検索されたコンテンツに対してきめ細かい分析を行い、信頼できる回答と手がかりを抽出する。
- 参考スコア(独自算出の注目度): 3.547564482333453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has been extensively employed to mitigate hallucinations in large language models (LLMs). However, existing methods for multi-hop reasoning tasks often lack global planning, increasing the risk of falling into local reasoning impasses. Insufficient exploitation of retrieved content and the neglect of latent clues fail to ensure the accuracy of reasoning outcomes. To overcome these limitations, we propose Recursive Evaluation and Adaptive Planning (REAP), whose core idea is to explicitly maintain structured sub-tasks and facts related to the current task through the Sub-task Planner (SP) and Fact Extractor (FE) modules. SP maintains a global perspective, guiding the overall reasoning direction and evaluating the task state based on the outcomes of FE, enabling dynamic optimization of the task-solving trajectory. FE performs fine-grained analysis over retrieved content to extract reliable answers and clues. These two modules incrementally enrich a logically coherent representation of global knowledge, enhancing the reliability and the traceability of the reasoning process. Furthermore, we propose a unified task paradigm design that enables effective multi-task fine-tuning, significantly enhancing SP's performance on complex, data-scarce tasks. We conduct extensive experiments on multiple public multi-hop datasets, and the results demonstrate that our method significantly outperforms existing RAG methods in both in-domain and out-of-domain settings, validating its effectiveness in complex multi-hop reasoning tasks.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)における幻覚の緩和に広く用いられている。
しかし、既存のマルチホップ推論タスクの方法は、多くの場合、グローバルな計画が欠落し、局所的な推論障害に陥るリスクが増大する。
検索されたコンテンツの不十分な利用と潜伏した手がかりの無視は、推論結果の正確性を保証するのに失敗する。
これらの制約を克服するため、我々はRecursive Evaluation and Adaptive Planning (REAP)を提案し、その中核となる考え方は、サブタスクプランナー(SP)およびファクトエクストラクタ(FE)モジュールを通して、現在のタスクに関連する構造化されたサブタスクと事実を明示的に維持することである。
SPはグローバルな視点を維持し、全体的な推論方向を導き、FEの結果に基づいてタスク状態を評価し、タスク解決軌道の動的最適化を可能にする。
FEは、検索されたコンテンツに対してきめ細かい分析を行い、信頼できる回答と手がかりを抽出する。
これら2つのモジュールは、論理的に一貫性のあるグローバル知識の表現を漸進的に豊かにし、推論プロセスの信頼性とトレーサビリティを高める。
さらに,マルチタスクの微調整を効果的に実現し,複雑なデータスカースタスクにおけるSPの性能を大幅に向上させる統一タスクパラダイム設計を提案する。
提案手法は,複数のパブリックマルチホップデータセットに対して広範な実験を行い,本手法が既存のRAG手法をドメイン内およびドメイン外の両方で著しく優れており,複雑なマルチホップ推論タスクにおけるその有効性を検証する。
関連論文リスト
- BOTS: A Unified Framework for Bayesian Online Task Selection in LLM Reinforcement Finetuning [82.925106913459]
強化微調整(Reinforcement Finetuning, RFT)は、大規模言語モデル(LLM)を人間の嗜好と整合させ、推論を強化するための重要な手法である。
RFT強化微調整におけるベイズオンラインタスク選択のための統合フレームワークBOTSを紹介する。
論文 参考訳(メタデータ) (2025-10-30T11:15:23Z) - HiRA: A Hierarchical Reasoning Framework for Decoupled Planning and Execution in Deep Search [85.12447821237045]
HiRAは、戦略的な計画と専門的な実行を分離する階層的なフレームワークである。
提案手法では,複雑な探索タスクを集中サブタスクに分解し,各サブタスクを外部ツールと推論機能を備えたドメイン固有エージェントに割り当てる。
4つの複雑なクロスモーダルなディープ・サーチ・ベンチマークの実験により、HiRAは最先端のRAGとエージェント・ベース・システムを大きく上回っていることが示された。
論文 参考訳(メタデータ) (2025-07-03T14:18:08Z) - TACO: Think-Answer Consistency for Optimized Long-Chain Reasoning and Efficient Data Learning via Reinforcement Learning in LVLMs [50.820065021136024]
DeepSeek R1には、大規模言語モデル(LLM)のためのかなり高度な複雑な推論がある。
最近の手法は、R1の推論能力をマルチモーダルな設定で再現しようと試みている。
視覚推論のための新しい強化学習アルゴリズムTACOを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:30:48Z) - DualRAG: A Dual-Process Approach to Integrate Reasoning and Retrieval for Multi-Hop Question Answering [57.875992666888855]
MHQA(Multi-Hop Question Answering)タスクは、多様な知識領域にまたがる多段階推論のオーケストレーションにおいて課題となる。
推論と検索をシームレスに統合する相乗的デュアルプロセスフレームワークであるDualRAGを提案する。
論文 参考訳(メタデータ) (2025-04-25T10:43:53Z) - Credible Plan-Driven RAG Method for Multi-Hop Question Answering [2.5772544412212985]
PDCA(Plan-Do-Check-Act)サイクルにインスパイアされた新しいフレームワークであるPAR-RAG(Plan-then-Act-and-Review RAG)を提案する。
Par-RAGは、現在の質問の意味的な複雑さにマッチした例を選び、複雑さを意識したトップダウンプランニングをガイドする。
二重検証機構は、中間誤差を評価し修正し、推論プロセスが事実上基底のままであることを保証する。
論文 参考訳(メタデータ) (2025-04-23T15:03:17Z) - Towards Large-Scale In-Context Reinforcement Learning by Meta-Training in Randomized Worlds [25.30163649182171]
In-Context Reinforcement Learning (ICRL)により、エージェントは対話的な体験から自動的に、そしてオンザフライで学習することができる。
我々はAnyMDPという手続き的に生成されたマルコフ決定プロセスを提案する。
慎重に設計されたランダム化プロセスを通じて、AnyMDPは比較的低い構造バイアスを維持しながら、大規模に高品質なタスクを生成することができる。
提案手法は,AnyMDPタスクを十分に大規模に行うことで,多目的な文脈内学習パラダイムによる学習では考慮されなかったタスクを一般化できることを実証した。
論文 参考訳(メタデータ) (2025-02-05T03:59:13Z) - Understanding the Design Decisions of Retrieval-Augmented Generation Systems [7.10184268156888]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)能力を向上するための重要な技術として登場した。
本稿では,3つの共通RAG展開決定に関する総合的研究について紹介する。
論文 参考訳(メタデータ) (2024-11-29T04:25:31Z) - Can We Further Elicit Reasoning in LLMs? Critic-Guided Planning with Retrieval-Augmentation for Solving Challenging Tasks [68.49251303172674]
最先端の大規模言語モデル(LLM)は、目覚ましい問題解決能力を示すが、複雑な推論と事実の正しさに苦慮する可能性がある。
既存の手法では、チェーン・オブ・ソートと検索強化生成(RAG)の強みを利用して、複雑な問題をより単純なステップに分解し、検索を適用して事実の正しさを向上させる。
CR-Planner(CR-Planner, CR-Planner, CR-Planner)は, 微調整された批判モデルを利用して, 推論と検索の両方のプロセスを計画を通してガイドする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-02T11:26:02Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。