論文の概要: Reasoning in Trees: Improving Retrieval-Augmented Generation for Multi-Hop Question Answering
- arxiv url: http://arxiv.org/abs/2601.11255v1
- Date: Fri, 16 Jan 2026 13:02:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.492589
- Title: Reasoning in Trees: Improving Retrieval-Augmented Generation for Multi-Hop Question Answering
- Title(参考訳): 木における推論:マルチホップ質問応答のための検索強化生成の改善
- Authors: Yuling Shi, Maolin Sun, Zijun Liu, Mo Yang, Yixiong Fang, Tianran Sun, Xiaodong Gu,
- Abstract要約: Reasoning Tree Guided RAG (RT-RAG) は複雑なマルチホップQAのための新しい階層的フレームワークである。
RT-RAGは、マルチホップ質問を明示的な推論木に体系的に分解し、不正確な分解を最小限にする。
- 参考スコア(独自算出の注目度): 14.456873356080186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has demonstrated significant effectiveness in enhancing large language models (LLMs) for complex multi-hop question answering (QA). For multi-hop QA tasks, current iterative approaches predominantly rely on LLMs to self-guide and plan multi-step exploration paths during retrieval, leading to substantial challenges in maintaining reasoning coherence across steps from inaccurate query decomposition and error propagation. To address these issues, we introduce Reasoning Tree Guided RAG (RT-RAG), a novel hierarchical framework for complex multi-hop QA. RT-RAG systematically decomposes multi-hop questions into explicit reasoning trees, minimizing inaccurate decomposition through structured entity analysis and consensus-based tree selection that clearly separates core queries, known entities, and unknown entities. Subsequently, a bottom-up traversal strategy employs iterative query rewriting and refinement to collect high-quality evidence, thereby mitigating error propagation. Comprehensive experiments show that RT-RAG substantially outperforms state-of-the-art methods by 7.0% F1 and 6.0% EM, demonstrating the effectiveness of RT-RAG in complex multi-hop QA.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、複雑なマルチホップ質問応答(QA)のための大規模言語モデル(LLM)の強化に有意な効果を示した。
マルチホップQAタスクでは、現在の反復的なアプローチは、検索中に自己導出と多段階探索経路の計画にLLMを頼りにしており、不正確なクエリ分解やエラーの伝播からステップ間のコヒーレンスを推論し続ける上で大きな課題となっている。
これらの問題に対処するために、複雑なマルチホップQAのための新しい階層的フレームワークであるReasoning Tree Guided RAG (RT-RAG)を紹介する。
RT-RAGは、マルチホップ質問を明示的な推論木に体系的に分解し、構造化されたエンティティ分析と、コアクエリ、既知のエンティティ、未知のエンティティを明確に分離するコンセンサスに基づくツリー選択による不正確な分解を最小限にする。
その後、ボトムアップトラバーサル戦略では、反復的なクエリ書き換えと改善を採用して、高品質な証拠を収集し、エラーの伝播を緩和する。
総合的な実験により、RT-RAGは最先端の手法を7.0%F1と6.0%EMで大幅に上回り、複雑なマルチホップQAにおけるRT-RAGの有効性を示した。
関連論文リスト
- Reinforcement Learning Enhanced Multi-hop Reasoning for Temporal Knowledge Question Answering [16.044892597109563]
時間的知識グラフ質問応答(TKGQA)は、時間的制約のあるエンティティ関係に対するマルチホップ推論を含む。
本稿では,MRE(Multi-hop reasoning enhanced, MRE)フレームワークを提案する。
提案したMREモデルが,複雑なマルチホップクエリ処理における最新技術(SOTA)アプローチを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2026-01-03T14:27:01Z) - Multi-hop Reasoning via Early Knowledge Alignment [68.28168992785896]
アーリー・ナレッジ・アライメント(EKA)は、大規模言語モデルと文脈的に関連づけられた知識を整合させることを目的としている。
EKAは検索精度を大幅に改善し、カスケードエラーを低減し、性能と効率を向上する。
EKAは、大規模モデルにシームレスにスケールする、多目的でトレーニング不要な推論戦略として有効である。
論文 参考訳(メタデータ) (2025-12-23T08:14:44Z) - ProgRAG: Hallucination-Resistant Progressive Retrieval and Reasoning over Knowledge Graphs [2.9539912037183362]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚と限られた透明性に苦しむ。
本稿では,複雑な質問をサブクエストに分解し,部分的推論経路を拡張するマルチホップ知識グラフ質問応答(KGQA)フレームワークであるProgRAGを提案する。
3つのよく知られたデータセットの実験により、ProgRAGはマルチホップKGQAで既存のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2025-11-13T12:14:36Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - ComposeRAG: A Modular and Composable RAG for Corpus-Grounded Multi-Hop Question Answering [42.238086712267396]
ComposeRAGは、RAGパイプラインをアトミックで構成可能なモジュールに分解する、新しいモジュラー抽象化である。
精度と接地忠実性の両方において、一貫して強いベースラインを上回ります。
検証ファーストの設計は、低品質の検索設定において、未解決の回答を10%以上削減する。
論文 参考訳(メタデータ) (2025-05-30T21:10:30Z) - DualRAG: A Dual-Process Approach to Integrate Reasoning and Retrieval for Multi-Hop Question Answering [57.875992666888855]
MHQA(Multi-Hop Question Answering)タスクは、多様な知識領域にまたがる多段階推論のオーケストレーションにおいて課題となる。
推論と検索をシームレスに統合する相乗的デュアルプロセスフレームワークであるDualRAGを提案する。
論文 参考訳(メタデータ) (2025-04-25T10:43:53Z) - Credible Plan-Driven RAG Method for Multi-Hop Question Answering [2.5772544412212985]
PDCA(Plan-Do-Check-Act)サイクルにインスパイアされた新しいフレームワークであるPAR-RAG(Plan-then-Act-and-Review RAG)を提案する。
Par-RAGは、現在の質問の意味的な複雑さにマッチした例を選び、複雑さを意識したトップダウンプランニングをガイドする。
二重検証機構は、中間誤差を評価し修正し、推論プロセスが事実上基底のままであることを保証する。
論文 参考訳(メタデータ) (2025-04-23T15:03:17Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。