論文の概要: GAM-RAG: Gain-Adaptive Memory for Evolving Retrieval in Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2603.01783v1
- Date: Mon, 02 Mar 2026 12:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.857458
- Title: GAM-RAG: Gain-Adaptive Memory for Evolving Retrieval in Retrieval-Augmented Generation
- Title(参考訳): GAM-RAG:Retrieval-Augmented Generationにおける検索の進化のためのゲイン適応メモリ
- Authors: Yifan Wang, Mingxuan Jiang, Zhihao Sun, Yixin Cao, Yicun Liu, Keyang Chen, Guangnan Ye, Hongfeng Chai,
- Abstract要約: Retrieval-Augmented Generation (RAG) は、大規模な言語モデルに外部の証拠を付けているが、多くの実装では、構築後も静的なインデックスに依存している。
認知神経科学におけるスキーマに基づく学習をモチベーションとして,繰り返しクエリや関連するクエリから検索経験を蓄積する学習自由フレームワークであるGAM-RAGを提案する。
GAM-RAGは、リンクが固定的な意味関係ではなく、潜在的な共起をキャプチャする、軽量で無関係な階層インデックスを構築している。
- 参考スコア(独自算出の注目度): 16.737829113782126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) grounds large language models with external evidence, but many implementations rely on pre-built indices that remain static after construction. Related queries therefore repeat similar multi-hop traversal, increasing latency and compute. Motivated by schema-based learning in cognitive neuroscience, we propose GAM-RAG, a training-free framework that accumulates retrieval experience from recurring or related queries and updates retrieval memory over time. GAM-RAG builds a lightweight, relation-free hierarchical index whose links capture potential co-occurrence rather than fixed semantic relations. During inference, successful retrieval episodes provide sentence-level feedback, updating sentence memories so evidence useful for similar reasoning types becomes easier to activate later. To balance stability and adaptability under noisy feedback, we introduce an uncertainty-aware, Kalman-inspired gain rule that jointly updates memory states and perplexity-based uncertainty estimates. It applies fast updates for reliable novel signals and conservative refinement for stable or noisy memories. We provide a theoretical analysis of the update dynamics, and empirically show that GAM-RAG improves average performance by 3.95% over the strongest baseline and by 8.19% with 5-turn memory, while reducing inference cost by 61%. Our code and datasets are available at: https://anonymous.4open.science/r/GAM_RAG-2EF6.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、大規模な言語モデルに外部の証拠を付けているが、多くの実装では、構築後も静的なインデックスに依存している。
したがって、関連するクエリは、同様のマルチホップトラバースを繰り返し、レイテンシと計算量が増加する。
認知神経科学におけるスキーマベースの学習によって動機づけられたGAM-RAGは、繰り返しまたは関連するクエリから検索経験を蓄積し、時間とともに検索メモリを更新する学習自由フレームワークである。
GAM-RAGは、リンクが固定的な意味関係ではなく、潜在的な共起をキャプチャする、軽量で無関係な階層インデックスを構築している。
推論中、成功した検索エピソードは文レベルのフィードバックを提供し、文章記憶を更新することで、類似の推論型に役立つ証拠が後で活性化しやすくなる。
雑音フィードバック下での安定性と適応性のバランスをとるために,メモリ状態と複雑度に基づく不確実性推定を共同で更新する不確実性に気付き,カルマンに着想を得た利得ルールを導入する。
信頼性の高い新しい信号に対する迅速な更新と、安定した記憶や騒々しい記憶に対する保守的な改善を施す。
本稿では, 更新力学の理論解析を行い, GAM-RAGが最強ベースラインで平均性能を3.95%向上し, 5ターンメモリで8.19%向上し, 推論コストを61%削減したことを示す。
私たちのコードとデータセットは、https://anonymous.4open.science/r/GAM_RAG-2EF6で公開されています。
関連論文リスト
- TS-Memory: Plug-and-Play Memory for Time Series Foundation Models [63.21390142212087]
Time Series Foundation Models (TSFM) は大規模な事前訓練を通じて強力なゼロショット予測を実現する。
パラメトリック適応は破滅的な忘れを招き、非パラメトリック検索は予測を改善するが、データストア検索によってレイテンシが高くなる。
本稿では, TSFM を拡張した軽量メモリアダプタ TS-Memory としてParametric Memory Distillation を提案し,実装する。
論文 参考訳(メタデータ) (2026-02-12T04:16:19Z) - IGMiRAG: Intuition-Guided Retrieval-Augmented Generation with Adaptive Mining of In-Depth Memory [33.00642870872058]
Retrieval-augmented Generation (RAG)は、信頼性の高い知識メモリを備えた大規模言語モデルである。
近年の研究では、グラフとハイパーグラフをRAGに統合し、構造化リンクとしてペアとマルチエンタリティの関係を捉えている。
我々は人間の直観誘導推論に触発されたIGMiRAGを提案する。
論文 参考訳(メタデータ) (2026-02-07T12:42:31Z) - RAG without Forgetting: Continual Query-Infused Key Memory [27.597076561986594]
Evolving Retrieval Memory (ERM) は、過渡的なクエリ時間ゲインを永続的な検索改善に変換する、トレーニング不要のフレームワークである。
ERMは、正しさに制限されたフィードバックを通じて検索インデックスを更新し、アトミック拡張信号を選択的にそれらが有益であるドキュメントキーに属性付け、安定でノルムバウンドな更新を通じてキーを段階的に進化させる。
我々は,クエリとキー拡張が理論的に標準的な類似関数の下で等価であることを示し,ERMの選択的更新の収束を証明し,最適なクエリ拡張を推論時間オーバーヘッドゼロの安定インデックスに補正することを示した。
論文 参考訳(メタデータ) (2026-02-05T00:12:45Z) - Breaking the Static Graph: Context-Aware Traversal for Robust Retrieval-Augmented Generation [12.71443292660797]
堅牢なRAGのためのコンテキスト認識トラバーサルであるCatRAGを提案する。
CatRAGはHippoRAG 2アーキテクチャ上に構築され、静的なKGをクエリ適応ナビゲーション構造に変換する。
4つのマルチホップベンチマークの実験では、CatRAGはアートベースラインの状態を一貫して上回っている。
論文 参考訳(メタデータ) (2026-02-02T11:13:38Z) - SYNAPSE: Empowering LLM Agents with Episodic-Semantic Memory via Spreading Activation [29.545442480332515]
プリコンパイルされたリンクではなく静的を超越する統一メモリアーキテクチャであるSynapseを紹介する。
この結果から,Synapseは時間的およびマルチホップの複雑な推論タスクにおいて,最先端の手法を著しく上回ることがわかった。
私たちのコードとデータは受け入れ次第公開されます。
論文 参考訳(メタデータ) (2026-01-06T06:19:58Z) - QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation [14.312693191309101]
Dynamic Retrieval-Augmented Generationは、大規模言語モデルにおける幻覚への生成時にいつ取得するかを適応的に決定する。
本稿では,主観的信頼度から事前学習データから客観的統計へ移行したQuCo-RAGを提案する。
提案手法は,(1) 生成前, 長い尾の知識ギャップを示す低周波の実体を同定し, (2) 生成中, 学習前コーパスにおけるエンティティ共起を検証し, ゼロ共起が幻覚のリスクを生じさせる。
論文 参考訳(メタデータ) (2025-12-22T08:28:05Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation [93.38604803625294]
IncertaintyRAG, a novel approach for long-context Retrieval-Augmented Generation (RAG)について紹介する。
我々は、SNR(Signal-to-Noise Ratio)ベースのスパン不確実性を用いて、テキストチャンク間の類似性を推定する。
不確かさRAGはLLaMA-2-7Bでベースラインを2.03%上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-03T17:39:38Z) - Synchronous Faithfulness Monitoring for Trustworthy Retrieval-Augmented Generation [96.78845113346809]
Retrieval-augmented Language Model (RALMs) は、知識集約型タスクにおいて、高い性能と幅広い適用性を示している。
本稿では,非偽文の検出に微細な復号力学を利用する軽量モニタであるSynCheckを提案する。
また、長文検索拡張生成のためのビームサーチによって導かれる忠実度指向の復号アルゴリズムであるFODを導入する。
論文 参考訳(メタデータ) (2024-06-19T16:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。