論文の概要: SEDM: Scalable Self-Evolving Distributed Memory for Agents
- arxiv url: http://arxiv.org/abs/2509.09498v3
- Date: Fri, 26 Sep 2025 06:26:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 18:47:02.692655
- Title: SEDM: Scalable Self-Evolving Distributed Memory for Agents
- Title(参考訳): SEDM: エージェントのためのスケーラブルな自己進化型分散メモリ
- Authors: Haoran Xu, Jiacong Hu, Ke Zhang, Lei Yu, Yuxin Tang, Xinyuan Song, Yiqun Duan, Lynn Ai, Bill Shi,
- Abstract要約: SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
- 参考スコア(独自算出の注目度): 23.182291416527764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-term multi-agent systems inevitably generate vast amounts of trajectories and historical interactions, which makes efficient memory management essential for both performance and scalability. Existing methods typically depend on vector retrieval and hierarchical storage, yet they are prone to noise accumulation, uncontrolled memory expansion, and limited generalization across domains. To address these challenges, we present SEDM, Self-Evolving Distributed Memory, a verifiable and adaptive framework that transforms memory from a passive repository into an active, self-optimizing component. SEDM integrates verifiable write admission based on reproducible replay, a self-scheduling memory controller that dynamically ranks and consolidates entries according to empirical utility, and cross-domain knowledge diffusion that abstracts reusable insights to support transfer across heterogeneous tasks. Evaluations on benchmark datasets demonstrate that SEDM improves reasoning accuracy while reducing token overhead compared with strong memory baselines, and further enables knowledge distilled from fact verification to enhance multi-hop reasoning. The results highlight SEDM as a scalable and sustainable memory mechanism for open-ended multi-agent collaboration. The code will be released in the later stage of this project.
- Abstract(参考訳): 長期のマルチエージェントシステムは、必然的に大量のトラジェクトリと履歴的相互作用を発生させるため、パフォーマンスとスケーラビリティの両方に効率的なメモリ管理が不可欠である。
既存の手法は一般にベクトル検索と階層記憶に依存しているが、ノイズ蓄積、制御不能なメモリ拡張、ドメイン間の一般化が制限される傾向がある。
これらの課題に対処するために、SEDM、Self-Evolving Distributed Memoryという、受動的リポジトリからアクティブな自己最適化コンポーネントにメモリを変換する検証可能な、適応的なフレームワークを紹介します。
SEDMは、再現可能なリプレイに基づく検証可能な書き込み入力と、経験的ユーティリティに従ってエントリを動的にランク付けして統合する自己スケジューリングメモリコントローラと、異種タスク間の転送をサポートするために再利用可能な洞察を抽象化するクロスドメイン知識拡散を統合している。
ベンチマークデータセットの評価では、SEDMは、強いメモリベースラインと比較してトークンオーバーヘッドを低減しつつ、推論精度を向上し、さらに事実検証から抽出した知識を活用し、マルチホップ推論を強化することが示されている。
その結果、SEDMは、オープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして注目されている。
コードはこのプロジェクトの後半でリリースされる。
関連論文リスト
- UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory [46.87954895079213]
自己進化型メモリは、大規模言語モデル(LLM)のトレーニング可能なパラメータとして機能する
既存の方法は、メモリ抽出を静的プロセスとして扱いながら、メモリ管理を優先的に最適化する。
本稿では,大言語モデルを協調的に最適化し,メモリの抽出と管理を同時に行うための統一メモリ抽出管理(UMEM)を提案する。
論文 参考訳(メタデータ) (2026-02-11T08:58:41Z) - Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - LatentMem: Customizing Latent Memory for Multi-Agent Systems [44.59989123744384]
トークン効率のよいエージェント固有のメモリをカスタマイズするための学習可能なマルチエージェントメモリフレームワークであるLatentMemを提案する。
具体的には、生の相互作用軌跡を軽量な形式で記憶する体験銀行と、検索された経験とエージェント固有の文脈に基づいて条件付けられたコンパクトな潜時記憶を合成するメモリ作曲家とを備える。
論文 参考訳(メタデータ) (2026-02-03T03:03:16Z) - AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [59.16831804985279]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
この制限に対処する最近の取り組みは、外部メモリバンクでLLMを増強することが多いが、既存のパイプラインのほとんどは静的で学習されている。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。