論文の概要: Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2601.01885v1
- Date: Mon, 05 Jan 2026 08:24:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.85579
- Title: Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents
- Title(参考訳): エージェント記憶:大規模言語モデルエージェントのための統合長期記憶と短期記憶管理を学習する
- Authors: Yi Yu, Liuyi Yao, Yuexiang Xie, Qingquan Tan, Jiaqi Feng, Yaliang Li, Libing Wu,
- Abstract要約: 大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
- 参考スコア(独自算出の注目度): 57.38404718635204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents face fundamental limitations in long-horizon reasoning due to finite context windows, making effective memory management critical. Existing methods typically handle long-term memory (LTM) and short-term memory (STM) as separate components, relying on heuristics or auxiliary controllers, which limits adaptability and end-to-end optimization. In this paper, we propose Agentic Memory (AgeMem), a unified framework that integrates LTM and STM management directly into the agent's policy. AgeMem exposes memory operations as tool-based actions, enabling the LLM agent to autonomously decide what and when to store, retrieve, update, summarize, or discard information. To train such unified behaviors, we propose a three-stage progressive reinforcement learning strategy and design a step-wise GRPO to address sparse and discontinuous rewards induced by memory operations. Experiments on five long-horizon benchmarks demonstrate that AgeMem consistently outperforms strong memory-augmented baselines across multiple LLM backbones, achieving improved task performance, higher-quality long-term memory, and more efficient context usage.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面し、効果的なメモリ管理が重要となる。
既存の手法は通常、長期記憶(LTM)と短期記憶(STM)を分離したコンポーネントとして扱い、ヒューリスティックや補助コントローラに依存し、適応性とエンドツーエンドの最適化を制限している。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
AgeMemはメモリ操作をツールベースのアクションとして公開し、LLMエージェントが情報を保存、取得、更新、要約、破棄するタイミングを自律的に決定できるようにする。
このような統一行動の訓練のために,記憶操作によって引き起こされるスパースかつ不連続な報酬に対処するために,段階的にGRPOを設計する3段階のプログレッシブ強化学習戦略を提案する。
5つのロングホライゾンベンチマークの実験では、AgeMemは複数のLDMバックボーンにまたがる強力なメモリ拡張ベースラインを一貫して上回り、タスクパフォーマンスの向上、高品質な長期メモリ、より効率的なコンテキスト利用を実現している。
関連論文リスト
- Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。