論文の概要: MemGen: Weaving Generative Latent Memory for Self-Evolving Agents
- arxiv url: http://arxiv.org/abs/2509.24704v2
- Date: Sun, 12 Oct 2025 02:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 15:48:09.62511
- Title: MemGen: Weaving Generative Latent Memory for Self-Evolving Agents
- Title(参考訳): MemGen: 自己進化エージェントのための生成潜在メモリを織る
- Authors: Guibin Zhang, Muxin Fu, Shuicheng Yan,
- Abstract要約: 本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
- 参考スコア(独自算出の注目度): 57.1835920227202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agent memory shapes how Large Language Model (LLM)-powered agents, akin to the human brain, progressively refine themselves through environment interactions. Existing paradigms remain constrained: parametric memory forcibly adjusts model parameters, and retrieval-based memory externalizes experience into structured databases, yet neither captures the fluid interweaving of reasoning and memory that underlies human cognition. To address this gap, we propose MemGen, a dynamic generative memory framework that equips agents with a human-esque cognitive faculty. It consists of a \textit{memory trigger}, which monitors the agent's reasoning state to decide explicit memory invocation, and a \textit{memory weaver}, which takes the agent's current state as stimulus to construct a latent token sequence as machine-native memory to enrich its reasoning. In this way, MemGen enables agents to recall and augment latent memory throughout reasoning, producing a tightly interwoven cycle of memory and cognition. Extensive experiments across eight benchmarks show that MemGen surpasses leading external memory systems such as ExpeL and AWM by up to $38.22\%$, exceeds GRPO by up to $13.44\%$, and exhibits strong cross-domain generalization ability. More importantly, we find that without explicit supervision, MemGen spontaneously evolves distinct human-like memory faculties, including planning memory, procedural memory, and working memory, suggesting an emergent trajectory toward more naturalistic forms of machine cognition.
- Abstract(参考訳): エージェントメモリは、人間の脳に似た、LLM(Large Language Model)駆動のエージェントが環境相互作用を通じて徐々に洗練していく様子を形作る。
パラメトリックメモリはモデルパラメータを強制的に調整し、検索ベースのメモリは経験を構造化データベースに外部化する。
このギャップに対処するために,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
これは、明示的なメモリ呼び出しを決定するためにエージェントの推論状態を監視する \textit{Memory trigger} と、エージェントの現在の状態を刺激として取り出して、マシンネイティブなメモリとして潜在トークンシーケンスを構築する \textit{Memory weaver} で構成されている。
このようにして、MemGenはエージェントが推論を通して潜在記憶をリコールし、増強し、記憶と認知の密接なサイクルを生み出すことができる。
8つのベンチマークにわたる大規模な実験により、MemGenはExpeLやAWMのような主要な外部メモリシステムを最大38.22 %$で、GRPOを最大13.44 %$で上回り、クロスドメインの一般化能力を示す。
さらに重要なことは、MemGenが明示的な監督なしに、計画記憶、手続き記憶、作業記憶など、自然に人間に似た記憶能力が進化し、より自然主義的なマシン認知への創発的な軌道を示唆していることである。
関連論文リスト
- UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory [46.87954895079213]
自己進化型メモリは、大規模言語モデル(LLM)のトレーニング可能なパラメータとして機能する
既存の方法は、メモリ抽出を静的プロセスとして扱いながら、メモリ管理を優先的に最適化する。
本稿では,大言語モデルを協調的に最適化し,メモリの抽出と管理を同時に行うための統一メモリ抽出管理(UMEM)を提案する。
論文 参考訳(メタデータ) (2026-02-11T08:58:41Z) - LatentMem: Customizing Latent Memory for Multi-Agent Systems [44.59989123744384]
トークン効率のよいエージェント固有のメモリをカスタマイズするための学習可能なマルチエージェントメモリフレームワークであるLatentMemを提案する。
具体的には、生の相互作用軌跡を軽量な形式で記憶する体験銀行と、検索された経験とエージェント固有の文脈に基づいて条件付けられたコンパクトな潜時記憶を合成するメモリ作曲家とを備える。
論文 参考訳(メタデータ) (2026-02-03T03:03:16Z) - FadeMem: Biologically-Inspired Forgetting for Efficient Agent Memory [4.608947574766633]
本稿では,人間の認知効率を反映した能動的忘れ機構を組み込んだ,生物学的にインスパイアされたエージェントメモリアーキテクチャであるFadeMemを提案する。
マルチセッションチャット, LoCoMo, LTI-Benchの実験では, ストレージの45%削減により, 優れたマルチホップ推論と検索が可能となった。
論文 参考訳(メタデータ) (2026-01-26T16:12:54Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - AI Meets Brain: Memory Systems from Cognitive Neuroscience to Autonomous Agents [69.39123054975218]
メモリは過去と未来の重要なネクサスブリッジとして機能する。
自律エージェントに関する最近の研究は、認知神経科学に基づいて効率的な記憶を設計することに集中している。
論文 参考訳(メタデータ) (2025-12-29T10:01:32Z) - MemEvolve: Meta-Evolution of Agent Memory Systems [66.09735157017558]
自己進化型メモリシステムは、大型言語モデル(LLM)ベースのエージェントの進化パラダイムを前例のない形で再構築している。
MemeEvolveは、エージェントの経験的知識とメモリアーキテクチャを共同で進化させるメタ進化フレームワークである。
EvolveLabは、12の代表的なメモリシステムをモジュール設計空間に蒸留する、統一された自己進化型メモリである。
論文 参考訳(メタデータ) (2025-12-21T14:26:14Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models [31.944531660401722]
我々は,大規模言語モデル(LLM)用に設計されたメモリオペレーティングシステムであるMemOSを紹介する。
コアとなるMemCubeは、異種メモリの追跡、融合、マイグレーションを可能にする標準化されたメモリ抽象化である。
MemOSは、強力な制御性、適応性、進化性を備えたメモリ中心の実行フレームワークを確立する。
論文 参考訳(メタデータ) (2025-05-28T08:27:12Z) - Lift Yourself Up: Retrieval-augmented Text Generation with Self Memory [72.36736686941671]
本稿では,検索拡張生成モデルを改善するための新しいフレームワーク,Selfmemを提案する。
Selfmemは、検索拡張ジェネレータを反復的に使用して、無制限のメモリプールを生成し、メモリセレクタを使用して、続く生成ラウンドの1つの出力をメモリとして選択する。
我々は,3つの異なるテキスト生成タスクにおける自己メモの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-03T21:40:54Z) - A Machine with Short-Term, Episodic, and Semantic Memory Systems [9.42475956340287]
明示的な人間の記憶システムの認知科学理論に触発されて、我々は短期的、エピソード的、セマンティックな記憶システムを持つエージェントをモデル化した。
実験により,人間のような記憶システムを持つエージェントは,このメモリ構造を環境に残さずにエージェントよりも優れた性能を発揮できることが示唆された。
論文 参考訳(メタデータ) (2022-12-05T08:34:23Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。