論文の概要: RECON: Reasoning with Condensation for Efficient Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2510.10448v1
- Date: Sun, 12 Oct 2025 05:00:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.942504
- Title: RECON: Reasoning with Condensation for Efficient Retrieval-Augmented Generation
- Title(参考訳): reCON: 効率的な検索拡張生成のための凝縮による推論
- Authors: Zhichao Xu, Minheng Wang, Yawei Wang, Wenqian Ye, Yuntao Du, Yunpu Ma, Yijun Tian,
- Abstract要約: 推論を伴う強化学習(RL)を用いて訓練された検索補助生成(RAG)システムは、非効率な文脈管理によって妨げられる。
本稿では,論理ループ内で証拠を圧縮するために,明示的な要約モジュールを統合するフレームワークRECONを紹介する。
- 参考スコア(独自算出の注目度): 17.554528845199645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented generation (RAG) systems trained using reinforcement learning (RL) with reasoning are hampered by inefficient context management, where long, noisy retrieved documents increase costs and degrade performance. We introduce RECON (REasoning with CONdensation), a framework that integrates an explicit summarization module to compress evidence within the reasoning loop. Our summarizer is trained via a two-stage process: relevance pretraining on QA datasets, followed by multi-aspect distillation from proprietary LLMs to ensure factuality and clarity. Integrated into the Search-R1 pipeline, RECON reduces total context length by 35\%, leading to improved training speed and inference latency, while simultaneously improving RAG performance on downstream QA benchmarks. Notably, it boosts the average EM score of the 3B model by 14.5\% and the 7B model by 3.0\%, showing particular strength in multi-hop QA. RECON demonstrates that learned context compression is essential for building practical, scalable, and performant RAG systems. Our code implementation is made available at https://github.com/allfornancy/RECON.
- Abstract(参考訳): 強化学習(RL)と推論を用いて訓練された検索用拡張生成システム(RAG)は、長きにわたりノイズの多い検索された文書がコストを増大させ、性能を低下させる非効率なコンテキスト管理によって妨げられる。
ReCON(Reasoning with Condensation)は明示的な要約モジュールを統合し、推論ループ内で証拠を圧縮するフレームワークである。
筆者らは,QAデータセットに対する関連事前学習と,実感と明確性を確保するために,独自LLMからの多視点蒸留を2段階に分けて実施した。
検索-R1パイプラインに統合されたRECONは、全体のコンテキスト長を35\%削減し、トレーニング速度と推論遅延を改善し、下流のQAベンチマークでのRAGパフォーマンスを同時に改善する。
特に、3Bモデルの平均EMスコアを14.5\%、7Bモデルの平均EMスコアを3.0\%引き上げ、マルチホップQAにおいて特に強みを示す。
RECONは、学習したコンテキスト圧縮が実用的でスケーラブルでパフォーマンスの高いRAGシステムを構築するのに不可欠であることを示した。
私たちのコード実装はhttps://github.com/allfornancy/RECONで公開されています。
関連論文リスト
- REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - KeyKnowledgeRAG (K^2RAG): An Enhanced RAG method for improved LLM question-answering capabilities [2.4874078867686085]
KeyKnowledgeRAG (K2RAG)は、RAG実装の制限を克服するために設計された新しいフレームワークである。
厳密でスパースなベクトル探索、知識グラフ、テキスト要約を統合して、検索品質とシステム効率を向上させる。
K2RAGは平均回答類似度スコア0.57を達成し、第3位Q3類似度0.82を達成した。
論文 参考訳(メタデータ) (2025-07-10T12:19:03Z) - Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs [51.21041884010009]
Ring-liteは、強化学習(RL)により最適化されたMixture-of-Experts(MoE)ベースの大規模言語モデルである
我々のアプローチは、挑戦的なベンチマーク上でのSOTA(State-of-the-art)の小規模推論モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-06-17T17:12:34Z) - Compress, Gather, and Recompute: REFORMing Long-Context Processing in Transformers [58.98923344096319]
REFORMは、2フェーズアプローチによって、長いコンテキストを効率的に処理する新しい推論フレームワークである。
RULERとBABILongでそれぞれ1Mコンテキスト長で50%以上と27%のパフォーマンス向上を達成した。
また、Infinite-BenchとMM-NIAHのベースラインを上回り、さまざまなタスクやドメインの柔軟性を示す。
論文 参考訳(メタデータ) (2025-06-01T23:49:14Z) - EXIT: Context-Aware Extractive Compression for Enhancing Retrieval-Augmented Generation [8.757777529568383]
現在のRAGシステムは、検索モデルが最も関連性の高い文書のランク付けに失敗したときにしばしば苦労する。
抽出文脈圧縮フレームワークEXITを紹介する。
評価の結果,EXITは既存の圧縮手法を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-12-17T05:38:27Z) - Audio-Visual Efficient Conformer for Robust Speech Recognition [91.3755431537592]
本稿では,近年提案されている高能率コンバータ接続性時間分類アーキテクチャの雑音を,音声と視覚の両方を処理して改善することを提案する。
実験の結果,音声と視覚のモダリティを用いることで,環境騒音の存在下での音声の認識が向上し,トレーニングが大幅に加速し,WERが4倍のトレーニングステップで低下することが確認された。
論文 参考訳(メタデータ) (2023-01-04T05:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。