論文の概要: ComposeRAG: A Modular and Composable RAG for Corpus-Grounded Multi-Hop Question Answering
- arxiv url: http://arxiv.org/abs/2506.00232v1
- Date: Fri, 30 May 2025 21:10:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.618919
- Title: ComposeRAG: A Modular and Composable RAG for Corpus-Grounded Multi-Hop Question Answering
- Title(参考訳): ComposeRAG: コーパスグラウンドマルチホップ質問応答のためのモジュール的で構成可能なRAG
- Authors: Ruofan Wu, Youngwon Lee, Fan Shu, Danmei Xu, Seung-won Hwang, Zhewei Yao, Yuxiong He, Feng Yan,
- Abstract要約: ComposeRAGは、RAGパイプラインをアトミックで構成可能なモジュールに分解する、新しいモジュラー抽象化である。
精度と接地忠実性の両方において、一貫して強いベースラインを上回ります。
検証ファーストの設計は、低品質の検索設定において、未解決の回答を10%以上削減する。
- 参考スコア(独自算出の注目度): 42.238086712267396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems are increasingly diverse, yet many suffer from monolithic designs that tightly couple core functions like query reformulation, retrieval, reasoning, and verification. This limits their interpretability, systematic evaluation, and targeted improvement, especially for complex multi-hop question answering. We introduce ComposeRAG, a novel modular abstraction that decomposes RAG pipelines into atomic, composable modules. Each module, such as Question Decomposition, Query Rewriting, Retrieval Decision, and Answer Verification, acts as a parameterized transformation on structured inputs/outputs, allowing independent implementation, upgrade, and analysis. To enhance robustness against errors in multi-step reasoning, ComposeRAG incorporates a self-reflection mechanism that iteratively revisits and refines earlier steps upon verification failure. Evaluated on four challenging multi-hop QA benchmarks, ComposeRAG consistently outperforms strong baselines in both accuracy and grounding fidelity. Specifically, it achieves up to a 15% accuracy improvement over fine-tuning-based methods and up to a 5% gain over reasoning-specialized pipelines under identical retrieval conditions. Crucially, ComposeRAG significantly enhances grounding: its verification-first design reduces ungrounded answers by over 10% in low-quality retrieval settings, and by approximately 3% even with strong corpora. Comprehensive ablation studies validate the modular architecture, demonstrating distinct and additive contributions from each component. These findings underscore ComposeRAG's capacity to deliver flexible, transparent, scalable, and high-performing multi-hop reasoning with improved grounding and interpretability.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは多様化しているが、多くの人はクエリの再構成、検索、推論、検証といったコア機能を密に結合するモノリシックな設計に悩まされている。
これにより、特に複雑なマルチホップ質問応答において、解釈可能性、体系的評価、目標とする改善が制限される。
我々は、RAGパイプラインをアトミックで構成可能なモジュールに分解する新しいモジュラー抽象化であるComposeRAGを紹介する。
Question Decomposition、Query Rewriting、Retrieval Decision、Answer Verificationといった各モジュールは、構造化インプット/アウトプットのパラメータ化変換として機能し、独立した実装、アップグレード、分析を可能にする。
マルチステップ推論におけるエラーに対する堅牢性を高めるために、ComposeRAGは、検証失敗の前のステップを反復的に再検討し洗練する自己回帰メカニズムを取り入れている。
4つの挑戦的なマルチホップQAベンチマークに基づいて評価され、ComposeRAGは精度と接地忠実性の両方において、強いベースラインを一貫して上回っている。
具体的には、微調整に基づく手法に比べて最大15%の精度向上を実現し、同一の検索条件下での推論特化パイプラインよりも最大5%の精度向上を実現している。
検証ファーストの設計は、低品質の検索設定において、未解決の回答を10%以上減らし、強力なコーパスでも約3%減らします。
総合的なアブレーション研究は、モジュールアーキテクチャを検証し、各コンポーネントから独立した追加的な貢献を示す。
これらの知見は, 柔軟性, 透過性, 拡張性, 高性能なマルチホップ推論を実現するためのComposeRAGの能力と, 接地性, 解釈性の向上を裏付けるものである。
関連論文リスト
- DO-RAG: A Domain-Specific QA Framework Using Knowledge Graph-Enhanced Retrieval-Augmented Generation [4.113142669523488]
ドメイン固有のQAシステムは、生成頻度を必要とするが、構造化専門家の知識に基づく高い事実精度を必要とする。
本稿では,マルチレベル知識グラフ構築と意味ベクトル検索を統合した,スケーラブルでカスタマイズ可能なハイブリッドQAフレームワークであるDO-RAGを提案する。
論文 参考訳(メタデータ) (2025-05-17T06:40:17Z) - Credible plan-driven RAG method for Multi-hop Question Answering [2.5772544412212985]
マルチホップ質問応答(QA)は、検索機能強化世代(RAG)にとって大きな課題となる。
中間結果の推論経路や誤りの偏りは、現在のRAG法でよく見られるもので、推論プロセスを通して伝播し蓄積する。
本稿では,計画・行動・レビューという3つの重要な段階に分けられるPAR RAG(Plan-then-Act-and-Review)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T15:03:17Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - MHTS: Multi-Hop Tree Structure Framework for Generating Difficulty-Controllable QA Datasets for RAG Evaluation [5.525151548786079]
既存のRAGベンチマークはクエリの難しさを見落とし、単純な質問や信頼性の低い評価でパフォーマンスが膨らむ。
MHTS(Multi-Hop Tree Structure)は、マルチホップツリー構造を利用して、論理的に連結されたマルチチャンククエリを生成することで、マルチホップ推論の複雑さを制御する新しいデータセット合成フレームワークである。
論文 参考訳(メタデータ) (2025-03-29T06:26:01Z) - Improving Retrieval-Augmented Generation through Multi-Agent Reinforcement Learning [51.54046200512198]
Retrieval-augmented Generation (RAG) は、外部の現在の知識を大規模言語モデルに組み込むために広く利用されている。
標準的なRAGパイプラインは、クエリ書き換え、文書検索、文書フィルタリング、回答生成など、いくつかのコンポーネントから構成される。
これらの課題を克服するため,RAGパイプラインを多エージェント協調作業として,各コンポーネントをRLエージェントとして扱うことを提案する。
論文 参考訳(メタデータ) (2025-01-25T14:24:50Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z) - Semantic Tokens in Retrieval Augmented Generation [0.0]
本稿では,確率的RAGシステムと決定論的に検証可能な応答のギャップを埋めるための評価モジュールを導入した新しい比較RAGシステムを提案する。
このフレームワークは、高い精度と検証可能性を必要とする領域において、より信頼性が高くスケーラブルな質問応答アプリケーションを実現する。
論文 参考訳(メタデータ) (2024-12-03T16:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。