論文の概要: MemAdapter: Fast Alignment across Agent Memory Paradigms via Generative Subgraph Retrieval
- arxiv url: http://arxiv.org/abs/2602.08369v1
- Date: Mon, 09 Feb 2026 08:09:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.119894
- Title: MemAdapter: Fast Alignment across Agent Memory Paradigms via Generative Subgraph Retrieval
- Title(参考訳): MemAdapter: 生成サブグラフ検索によるエージェントメモリパラダイム間の高速アライメント
- Authors: Xin Zhang, Kailai Yang, Chenyue Li, Hao Li, Qiyu Wei, Jun'ichi Tsujii, Sophia Ananiadou,
- Abstract要約: メモリメカニズムはLLMベースのエージェントの中核的なコンポーネントであり、長期のコンテキスト上での推論と知識発見を可能にする。
既存のエージェントメモリシステムは通常、密結合した検索手法で分離されたパラダイムで設計される。
MemAdapterは、エージェントメモリパラダイム間の高速アライメントを可能にするメモリ検索フレームワークである。
- 参考スコア(独自算出の注目度): 25.68006224976726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory mechanism is a core component of LLM-based agents, enabling reasoning and knowledge discovery over long-horizon contexts. Existing agent memory systems are typically designed within isolated paradigms (e.g., explicit, parametric, or latent memory) with tightly coupled retrieval methods that hinder cross-paradigm generalization and fusion. In this work, we take a first step toward unifying heterogeneous memory paradigms within a single memory system. We propose MemAdapter, a memory retrieval framework that enables fast alignment across agent memory paradigms. MemAdapter adopts a two-stage training strategy: (1) training a generative subgraph retriever from the unified memory space, and (2) adapting the retriever to unseen memory paradigms by training a lightweight alignment module through contrastive learning. This design improves the flexibility for memory retrieval and substantially reduces alignment cost across paradigms. Comprehensive experiments on three public evaluation benchmarks demonstrate that the generative subgraph retriever consistently outperforms five strong agent memory systems across three memory paradigms and agent model scales. Notably, MemAdapter completes cross-paradigm alignment within 13 minutes on a single GPU, achieving superior performance over original memory retrievers with less than 5% of training compute. Furthermore, MemAdapter enables effective zero-shot fusion across memory paradigms, highlighting its potential as a plug-and-play solution for agent memory systems.
- Abstract(参考訳): メモリメカニズムはLLMベースのエージェントの中核的なコンポーネントであり、長期のコンテキスト上での推論と知識発見を可能にする。
既存のエージェントメモリシステムは、通常、分離されたパラダイム(例えば、明示的、パラメトリック、潜時メモリ)の中で設計されており、相互パラダイムの一般化と融合を妨げる厳密な結合された検索方法がある。
本研究では,単一メモリシステムにおける異種メモリパラダイムの統一に向けた第一歩を踏み出す。
本稿では,エージェントメモリパラダイム間の高速アライメントを実現するメモリ検索フレームワークであるMemAdapterを提案する。
MemAdapterは、(1)生成サブグラフレトリバーを統一メモリ空間からトレーニングし、(2)軽量アライメントモジュールをコントラスト学習でトレーニングすることで、未確認メモリパラダイムにレトリバーを適応させる2段階のトレーニング戦略を採用する。
この設計はメモリ検索の柔軟性を改善し、パラダイム間のアライメントコストを大幅に削減する。
3つの公開評価ベンチマークの総合的な実験により、生成サブグラフレトリバーは3つのメモリパラダイムとエージェントモデルスケールで5つの強力なエージェントメモリシステムより一貫して優れていることが示された。
特に、MemAdapterは1つのGPU上で13分以内の並列アライメントを完了し、トレーニング計算の5%未満で元のメモリレトリバーよりも優れたパフォーマンスを実現している。
さらに、MemAdapterはメモリパラダイム間の効率的なゼロショット融合を可能にし、エージェントメモリシステムのためのプラグアンドプレイソリューションとしての可能性を強調している。
関連論文リスト
- Mem-T: Densifying Rewards for Long-Horizon Memory Agents [23.19373149519922]
我々は,動的更新やストリーミング入力によるマルチターン検索を行うために,軽量な階層型メモリデータベースと対話する自律メモリエージェントMem-Tを紹介する。
また,木誘導型強化学習フレームワークであるMoT-GRPOを提案する。
論文 参考訳(メタデータ) (2026-01-30T14:23:33Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Multiple Memory Systems for Enhancing the Long-term Memory of Agent [9.43633399280987]
MemoryBankやA-MEMといった既存の手法は、記憶されているメモリの質が劣っている。
我々は認知心理学理論にインスパイアされた多重記憶システムを設計した。
論文 参考訳(メタデータ) (2025-08-21T06:29:42Z) - MEMO: Fine-grained Tensor Management For Ultra-long Context LLM Training [24.066283519769968]
大規模言語モデル(LLM)は、よりクリエイティブなアプリケーションを促進するために、拡張コンテキスト長を使用して訓練されている。
本稿では,メモリ管理を微粒化するための新しいフレームワークであるMEMOを提案する。
MeMOはMegatron-LMやDeepSpeedと比べて平均1.97倍と1.80倍のMFUを達成している。
論文 参考訳(メタデータ) (2024-07-16T18:59:49Z) - Lift Yourself Up: Retrieval-augmented Text Generation with Self Memory [72.36736686941671]
本稿では,検索拡張生成モデルを改善するための新しいフレームワーク,Selfmemを提案する。
Selfmemは、検索拡張ジェネレータを反復的に使用して、無制限のメモリプールを生成し、メモリセレクタを使用して、続く生成ラウンドの1つの出力をメモリとして選択する。
我々は,3つの異なるテキスト生成タスクにおける自己メモの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-03T21:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。