論文の概要: UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory
- arxiv url: http://arxiv.org/abs/2602.10652v1
- Date: Wed, 11 Feb 2026 08:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.606364
- Title: UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory
- Title(参考訳): UMEM: 一般化可能なメモリのための統一メモリ抽出と管理フレームワーク
- Authors: Yongshi Ye, Hui Jiang, Feihu Jiang, Tian Lan, Yichao Du, Biao Fu, Xiaodong Shi, Qianghuai Jia, Longyue Wang, Weihua Luo,
- Abstract要約: 自己進化型メモリは、大規模言語モデル(LLM)のトレーニング可能なパラメータとして機能する
既存の方法は、メモリ抽出を静的プロセスとして扱いながら、メモリ管理を優先的に最適化する。
本稿では,大言語モデルを協調的に最適化し,メモリの抽出と管理を同時に行うための統一メモリ抽出管理(UMEM)を提案する。
- 参考スコア(独自算出の注目度): 46.87954895079213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-evolving memory serves as the trainable parameters for Large Language Models (LLMs)-based agents, where extraction (distilling insights from experience) and management (updating the memory bank) must be tightly coordinated. Existing methods predominately optimize memory management while treating memory extraction as a static process, resulting in poor generalization, where agents accumulate instance-specific noise rather than robust memories. To address this, we propose Unified Memory Extraction and Management (UMEM), a self-evolving agent framework that jointly optimizes a Large Language Model to simultaneous extract and manage memories. To mitigate overfitting to specific instances, we introduce Semantic Neighborhood Modeling and optimize the model with a neighborhood-level marginal utility reward via GRPO. This approach ensures memory generalizability by evaluating memory utility across clusters of semantically related queries. Extensive experiments across five benchmarks demonstrate that UMEM significantly outperforms highly competitive baselines, achieving up to a 10.67% improvement in multi-turn interactive tasks. Futhermore, UMEM maintains a monotonic growth curve during continuous evolution. Codes and models will be publicly released.
- Abstract(参考訳): 自己進化型メモリは、LLM(Large Language Models)ベースのエージェントのトレーニング可能なパラメータとして機能する。
既存の方法は、メモリ抽出を静的なプロセスとして扱いながらメモリ管理を優先的に最適化し、結果として、エージェントが堅牢なメモリではなく、インスタンス固有のノイズを蓄積する一般化が不十分になる。
これを解決するために,大規模言語モデルと協調してメモリの抽出と管理を行う自己進化型エージェントフレームワークであるUnified Memory extract and Management (UMEM)を提案する。
特定インスタンスへのオーバーフィッティングを軽減するため,セマンティック近隣モデルを導入し,GRPOによる周辺レベルの限界効用報酬を用いてモデルを最適化する。
このアプローチは、セマンティックなクエリのクラスタ間でメモリの有用性を評価することによって、メモリの一般化性を保証する。
5つのベンチマークにわたる大規模な実験により、UMEMは高い競争力を持つベースラインを著しく上回り、マルチターン対話タスクにおいて最大10.67%の改善を達成している。
さらに、UMEMは連続的な進化の間に単調な成長曲線を維持する。
コードとモデルは公開されます。
関連論文リスト
- LatentMem: Customizing Latent Memory for Multi-Agent Systems [44.59989123744384]
トークン効率のよいエージェント固有のメモリをカスタマイズするための学習可能なマルチエージェントメモリフレームワークであるLatentMemを提案する。
具体的には、生の相互作用軌跡を軽量な形式で記憶する体験銀行と、検索された経験とエージェント固有の文脈に基づいて条件付けられたコンパクトな潜時記憶を合成するメモリ作曲家とを備える。
論文 参考訳(メタデータ) (2026-02-03T03:03:16Z) - MemoryRewardBench: Benchmarking Reward Models for Long-Term Memory Management in Large Language Models [40.965722377085456]
メモリ品質を評価するための報酬モデルの有効性を体系的に研究する最初のベンチマークであるMemoryRewardBenchを紹介する。
13個の最先端RMの評価は、オープンソースモデルとプロプライエタリモデルの間のパフォーマンスギャップを減らしていることを示している。
論文 参考訳(メタデータ) (2026-01-17T09:04:53Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。