論文の概要: Replace, Don't Expand: Mitigating Context Dilution in Multi-Hop RAG via Fixed-Budget Evidence Assembly
- arxiv url: http://arxiv.org/abs/2512.10787v1
- Date: Thu, 11 Dec 2025 16:31:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.462382
- Title: Replace, Don't Expand: Mitigating Context Dilution in Multi-Hop RAG via Fixed-Budget Evidence Assembly
- Title(参考訳): Replace, Don't Expand: Fixed-Budget Evidence AssemblyによるマルチホップRAGにおけるコンテキスト希釈の緩和
- Authors: Moshe Lahmy, Roi Yozevitch,
- Abstract要約: RAGシステムは、初期検索がブリッジ事実を見逃した場合に、マルチホップクエリーで失敗することが多い。
我々は,textbfreplaceを採用したトレーニングフリーのコントローラである textbfSEAL-RAG を提案する。
共有環境における基本RAG,CRAG,Self-RAG,Adaptive-$k$の忠実な再実装に対するSEAL-RAGの評価を行った。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems often fail on multi-hop queries when the initial retrieval misses a bridge fact. Prior corrective approaches, such as Self-RAG, CRAG, and Adaptive-$k$, typically address this by \textit{adding} more context or pruning existing lists. However, simply expanding the context window often leads to \textbf{context dilution}, where distractors crowd out relevant information. We propose \textbf{SEAL-RAG}, a training-free controller that adopts a \textbf{``replace, don't expand''} strategy to fight context dilution under a fixed retrieval depth $k$. SEAL executes a (\textbf{S}earch $\rightarrow$ \textbf{E}xtract $\rightarrow$ \textbf{A}ssess $\rightarrow$ \textbf{L}oop) cycle: it performs on-the-fly, entity-anchored extraction to build a live \textit{gap specification} (missing entities/relations), triggers targeted micro-queries, and uses \textit{entity-first ranking} to actively swap out distractors for gap-closing evidence. We evaluate SEAL-RAG against faithful re-implementations of Basic RAG, CRAG, Self-RAG, and Adaptive-$k$ in a shared environment on \textbf{HotpotQA} and \textbf{2WikiMultiHopQA}. On HotpotQA ($k=3$), SEAL improves answer correctness by \textbf{+3--13 pp} and evidence precision by \textbf{+12--18 pp} over Self-RAG. On 2WikiMultiHopQA ($k=5$), it outperforms Adaptive-$k$ by \textbf{+8.0 pp} in accuracy and maintains \textbf{96\%} evidence precision compared to 22\% for CRAG. These gains are statistically significant ($p<0.001$). By enforcing fixed-$k$ replacement, SEAL yields a predictable cost profile while ensuring the top-$k$ slots are optimized for precision rather than mere breadth. We release our code and data at https://github.com/mosherino/SEAL-RAG.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、初期検索がブリッジ事実を見逃した場合に、マルチホップクエリで失敗することが多い。
Self-RAG、CRAG、Adaptive-$k$といった事前の修正アプローチは、通常、既存のリストのコンテクストやプルーニングによってこの問題に対処する。
しかし、単にコンテキストウインドウを拡張すれば、しばしば \textbf{context dilution} につながる。
そこで本稿では,<textbf{SEAL-RAG} をトレーニング不要のコントローラとして,<textbf{``replace, Don't expand'} 戦略を採用して,検索深度を固定した$k$で処理する手法を提案する。
SEALは(\textbf{S}earch $\rightarrow$ \textbf{E}xtract $\rightarrow$ \textbf{A}ssess $\rightarrow$ \textbf{L}oop)サイクルを実行します。
基本RAG,CRAG,Self-RAG,Adaptive-$k$の忠実な再実装に対するSEAL-RAGの評価を行った。
HotpotQA (k=3$) では、SEAL は \textbf{+3--13 pp} で解の正しさを改善し、Self-RAG 上で \textbf{+12--18 pp} で正解の正確性を示す。
2WikiMultiHopQA$k=5$では、Adaptive-$k$ by \textbf{+8.0 pp} を精度で上回り、CRAGの22\%と比較すると、 \textbf{96\%} のエビデンス精度を維持している。
これらの利得は統計的に有意である(p<0.001$)。
固定k$の置き換えを強制することにより、SEALは予測可能なコストプロファイルを得ると同時に、上位k$のスロットが単なる幅ではなく精度に最適化されていることを保証します。
コードとデータはhttps://github.com/mosherino/SEAL-RAG.comで公開しています。
関連論文リスト
- FedAdamW: A Communication-Efficient Optimizer with Convergence and Generalization Guarantees for Federated Large Models [27.658955798426323]
AdamWは、大規模なモデルをトレーニングするための最も効果的な一般化の1つになった。
我々は、様々な大規模モデルのトレーニングと微調整を行うために、textttFedAdamWと呼ばれる最初のアンダーラインAdamWアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-10-31T14:04:43Z) - Reinforcement Learning with Verifiable yet Noisy Rewards under Imperfect Verifiers [90.50039419576807]
RLVR(Reinforcement Learning with Verifiable Rewards)は、人為的なラベル付けを避けるために、自動検証に対するポリシーを訓練する。
認証ハッキングの脆弱性を軽減するため、多くのRLVRシステムはトレーニング中にバイナリ$0,1$の報酬を破棄する。
この選択にはコストがかかる:textitfalse negatives(正しい回答、FNを拒絶)とtextitfalse positives(間違った回答、FPを受け入れる)を導入する。
論文 参考訳(メタデータ) (2025-10-01T13:56:44Z) - Directed Information $γ$-covering: An Information-Theoretic Framework for Context Engineering [2.541246776283285]
冗長性を考慮したコンテキストエンジニアリングのためのフレームワークであるDirected Information $gamma$-coveringを紹介した。
オンラインコストは発生せず、オフラインで一度計算し、すべてのクエリで償却することができる。
これらの結果は、現代のLLMパイプラインのための原則化された自己組織化バックボーンとしてDI $gamma$-coveringを確立する。
論文 参考訳(メタデータ) (2025-09-30T02:41:11Z) - Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization [77.3396841985172]
我々は、構造化された非極小最適化問題の解法として、2時間勾配上昇(TTGDA)を統一的に解析する。
我々の貢献はTTGDAアルゴリズムを設計することであり、設定を超えて効果的です。
論文 参考訳(メタデータ) (2024-08-21T20:14:54Z) - An Efficient Recipe for Long Context Extension via Middle-Focused Positional Encoding [25.20222970947923]
本稿では,事前学習された大規模言語モデル(LLM)の文脈長を拡張する手法を提案する。
$textttCREAM$ 位置インデックスを操作することで位置エンコーディングを補間する。
実験によると、$textttCREAM$ は "Never Miss A Beat" 付き $texttLlama2-7B$ の Base 版と Chat 版の両方で LLM をターゲット長まで拡張することができた。
論文 参考訳(メタデータ) (2024-06-11T10:35:49Z) - Vision Transformer with Sparse Scan Prior [24.78780746169092]
textbfSparse textbfScan textbfSelf-textbfAttention mechanism(rmS3rmA$)を提案する。
このメカニズムはトークンごとに一連のAnchor of Interestをプリ定義し、局所的な注意を使ってこれらのアンカー周辺の空間情報を効率的にモデル化する。
rmS3rmA$で構築すると、 textbfSparse textbfScan textbfVisionを導入します。
論文 参考訳(メタデータ) (2024-05-22T04:34:36Z) - On the Interplay Between Misspecification and Sub-optimality Gap in
Linear Contextual Bandits [76.2262680277608]
本研究では,線形関数クラスによって期待される報酬関数を近似できるような,不特定条件下での線形文脈帯域について検討する。
このアルゴリズムは, 対数的因子に比例した設定において, ギャップ依存の残差が$tilde O (d2/Delta)$と同じであることを示す。
論文 参考訳(メタデータ) (2023-03-16T15:24:29Z) - A Simple and Provably Efficient Algorithm for Asynchronous Federated
Contextual Linear Bandits [77.09836892653176]
我々は,M$エージェントが相互に協力して,中央サーバの助けを借りて,グローバルなコンテキスト線形バンドイット問題を解決するためのフェデレーション付きコンテキスト線形バンドイットについて検討した。
すべてのエージェントが独立して動作し、ひとつのエージェントとサーバ間の通信が他のエージェントの通信をトリガーしない非同期設定を考える。
texttFedLinUCBの後悔は$tildeO(dsqrtsum_m=1M T_m)$で、通信の複雑さは$tildeO(dM)であることを示す。
論文 参考訳(メタデータ) (2022-07-07T06:16:19Z) - Pick up the PACE: Fast and Simple Domain Adaptation via Ensemble
Pseudo-Labeling [16.14184145802016]
ドメイン適応(DA)は、アウト・オブ・ディストリビューションラベル付きデータによるテスト精度の向上の可能性から、近年、ディープラーニング研究者から広く注目を集めている。
本研究では,(1)共分散マッチングによるドメインアライメント,(2)擬似ラベリング,(3)アンサンブルの3段階からなる,高速でシンプルなDA手法を提案する。
PACEは、ニューラルネットワークをトレーニングすることなく、ほとんどのベンチマーク適応タスクにおいて、以前の最先端を$textbf5 - 10 %で上回る。
論文 参考訳(メタデータ) (2022-05-26T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。