論文の概要: CIRAG: Construction-Integration Retrieval and Adaptive Generation for Multi-hop Question Answering
- arxiv url: http://arxiv.org/abs/2601.06799v1
- Date: Sun, 11 Jan 2026 07:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.997921
- Title: CIRAG: Construction-Integration Retrieval and Adaptive Generation for Multi-hop Question Answering
- Title(参考訳): CIRAG:Multi-hop Question Answeringのための構築・集約検索と適応生成
- Authors: Zili Wei, Xiaocui Yang, Yilin Wang, Zihan Wang, Weidong Bao, Shi Feng, Daling Wang, Yifei Zhang,
- Abstract要約: Triple-based Iterative Retrieval-Augmented Generation (iRAG)は、マルチホップ質問応答のための文書レベルのノイズを軽減する。
既存のメソッドはまだ制限に直面している。 (i) 早期エラーを伝播するgreedyシングルパス拡張。
本稿では,CIRAG を用いた構築・統合検索・適応生成モデルを提案する。
- 参考スコア(独自算出の注目度): 36.21771603421952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Triple-based Iterative Retrieval-Augmented Generation (iRAG) mitigates document-level noise for multi-hop question answering. However, existing methods still face limitations: (i) greedy single-path expansion, which propagates early errors and fails to capture parallel evidence from different reasoning branches, and (ii) granularity-demand mismatch, where a single evidence representation struggles to balance noise control with contextual sufficiency. In this paper, we propose the Construction-Integration Retrieval and Adaptive Generation model, CIRAG. It introduces an Iterative Construction-Integration module that constructs candidate triples and history-conditionally integrates them to distill core triples and generate the next-hop query. This module mitigates the greedy trap by preserving multiple plausible evidence chains. Besides, we propose an Adaptive Cascaded Multi-Granularity Generation module that progressively expands contextual evidence based on the problem requirements, from triples to supporting sentences and full passages. Moreover, we introduce Trajectory Distillation, which distills the teacher model's integration policy into a lightweight student, enabling efficient and reliable long-horizon reasoning. Extensive experiments demonstrate that CIRAG achieves superior performance compared to existing iRAG methods.
- Abstract(参考訳): Triple-based Iterative Retrieval-Augmented Generation (iRAG)は、マルチホップ質問応答のための文書レベルのノイズを軽減する。
しかし、既存のメソッドはまだ制限に直面している。
(i)早期の誤りを伝播し、異なる推論枝から平行証拠をつかむのに失敗する欲求単一経路展開
(II) 1つの証拠表現が、騒音制御と文脈的充足のバランスをとるのに苦労する、粒度要求ミスマッチ。
本稿では,CIRAG を用いた構築・統合検索・適応生成モデルを提案する。
Iterative Construction-Integrationモジュールを導入し、候補三重項と履歴条件の統合を行い、コア三重項を蒸留し、次のホップクエリを生成する。
このモジュールは、複数の証明可能なエビデンスチェーンを保存することにより、欲求トラップを緩和する。
さらに,問題要件に基づいて文脈証拠を段階的に拡張する適応カスケード型マルチグラニュラリティ生成モジュールを提案する。
さらに,教師モデルの統合政策を軽量な学生に蒸留し,効率的で信頼性の高い長距離推論を可能にするトラジェクトリ蒸留を導入する。
CIRAGは既存のiRAG法と比較して優れた性能を示す。
関連論文リスト
- FAIR-RAG: Faithful Adaptive Iterative Refinement for Retrieval-Augmented Generation [0.0]
本稿では、標準的なRAGパイプラインを動的にエビデンス駆動の推論プロセスに変換する新しいエージェントフレームワークであるFAIR-RAGを紹介する。
本稿では,HotpotQA,2WikiMultiHopQA,MusiQueなどのマルチホップQAベンチマーク実験を行う。
我々の研究は、高度なRAGシステムにおける信頼性と正確な推論を解き明かすためには、明確なギャップ分析による構造化されたエビデンス駆動の洗練プロセスが不可欠であることを示す。
論文 参考訳(メタデータ) (2025-10-25T15:59:33Z) - SUBQRAG: Sub-Question Driven Dynamic Graph RAG [34.20328335590984]
SubQRAGは、推論深度を高めるサブクエスト駆動のフレームワークである。
SubQRAGは複雑な質問を検証可能なサブクエストの順序付けられた連鎖に分解する。
3つのマルチホップQAベンチマークの実験では、SubQRAGが一貫性と大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-10-09T02:55:58Z) - ImpRAG: Retrieval-Augmented Generation with Implicit Queries [34.72864597562907]
ImpRAGは、検索と生成を統一モデルに統合するクエリフリーなRAGシステムである。
我々は、ImpRAGが、多様な形式を持つ未確認タスクの正確なマッチスコアを3.6-11.5改善したことを示す。
論文 参考訳(メタデータ) (2025-06-02T21:38:21Z) - ComposeRAG: A Modular and Composable RAG for Corpus-Grounded Multi-Hop Question Answering [42.238086712267396]
ComposeRAGは、RAGパイプラインをアトミックで構成可能なモジュールに分解する、新しいモジュラー抽象化である。
精度と接地忠実性の両方において、一貫して強いベースラインを上回ります。
検証ファーストの設計は、低品質の検索設定において、未解決の回答を10%以上削減する。
論文 参考訳(メタデータ) (2025-05-30T21:10:30Z) - PropRAG: Guiding Retrieval with Beam Search over Proposition Paths [15.346744525284604]
PropRAGは、トリプルからコンテキストリッチな命題に移行する新しいRAGフレームワークである。
PropRAGは2Wiki、HotpotQA、MuSiQueでRecall@5とF1のスコアを達成している。
論文 参考訳(メタデータ) (2025-04-25T04:47:34Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。