論文の概要: AtomMem : Learnable Dynamic Agentic Memory with Atomic Memory Operation
- arxiv url: http://arxiv.org/abs/2601.08323v1
- Date: Tue, 13 Jan 2026 08:22:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.116007
- Title: AtomMem : Learnable Dynamic Agentic Memory with Atomic Memory Operation
- Title(参考訳): AtomMem : 原子メモリ操作による動的エージェントメモリの学習
- Authors: Yupeng Huo, Yaxi Lu, Zhong Zhang, Haotian Chen, Yankai Lin,
- Abstract要約: 本稿では,メモリ管理を動的意思決定問題として再設計するAtomMemを提案する。
教師付き微調整と強化学習を組み合わせることで、AtomMemは、メモリの振る舞いをオーケストレーションする自律的なタスク整合ポリシーを学ぶ。
3つの長期コンテキストベンチマークの実験結果から、トレーニング済みのAtomMem-8Bは、従来の静的ワークフローメモリメソッドよりも一貫して優れていたことが示されている。
- 参考スコア(独自算出の注目度): 40.1709026042412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equipping agents with memory is essential for solving real-world long-horizon problems. However, most existing agent memory mechanisms rely on static and hand-crafted workflows. This limits the performance and generalization ability of these memory designs, which highlights the need for a more flexible, learning-based memory framework. In this paper, we propose AtomMem, which reframes memory management as a dynamic decision-making problem. We deconstruct high-level memory processes into fundamental atomic CRUD (Create, Read, Update, Delete) operations, transforming the memory workflow into a learnable decision process. By combining supervised fine-tuning with reinforcement learning, AtomMem learns an autonomous, task-aligned policy to orchestrate memory behaviors tailored to specific task demands. Experimental results across 3 long-context benchmarks demonstrate that the trained AtomMem-8B consistently outperforms prior static-workflow memory methods. Further analysis of training dynamics shows that our learning-based formulation enables the agent to discover structured, task-aligned memory management strategies, highlighting a key advantage over predefined routines.
- Abstract(参考訳): メモリを持つエージェントの取得は、現実世界の長距離問題の解決に不可欠である。
しかし、既存のエージェントメモリ機構のほとんどは静的および手作りのワークフローに依存している。
これにより、これらのメモリ設計のパフォーマンスと一般化能力が制限され、より柔軟な学習ベースのメモリフレームワークの必要性が強調される。
本稿では,メモリ管理を動的意思決定問題として再設計するAtomMemを提案する。
高レベルのメモリプロセスを基本的なアトミックCRUD(Create, Read, Update, Delete)操作に分解し、メモリワークフローを学習可能な決定プロセスに変換する。
教師付き微調整と強化学習を組み合わせることで、AtomMemは、特定のタスク要求に合わせて調整されたメモリ動作をオーケストレーションする自律的なタスク整合ポリシーを学ぶ。
3つの長期コンテキストベンチマークの実験結果から、トレーニング済みのAtomMem-8Bは、従来の静的ワークフローメモリメソッドよりも一貫して優れていたことが示されている。
トレーニングダイナミクスのさらなる分析は、学習に基づく定式化により、エージェントが構造化されたタスク整合メモリ管理戦略を発見でき、事前に定義されたルーチンよりも重要な利点を浮き彫りにすることができることを示している。
関連論文リスト
- Learning How to Remember: A Meta-Cognitive Management Method for Structured and Transferable Agent Memory [31.318565330948562]
本稿では,メタ認知メモリ抽象化法(MCMA)を提案する。
MCMAはメモリ抽象化を、一定の設計選択ではなく、学習可能な認知スキルとして扱う。
ALFWorld、ScienceWorld、BabyAIの実験では、パフォーマンス、アウト・オブ・ディストリビューションの一般化、クロスタスク転送が大幅に改善された。
論文 参考訳(メタデータ) (2026-01-12T12:26:02Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Mem-α: Learning Memory Construction via Reinforcement Learning [20.916677456417464]
大きな言語モデル(LLM)エージェントは、限られたコンテキストウィンドウによって制約される。
現在のメモリ拡張エージェントは、メモリ更新のための事前に定義された命令とツールに依存している。
Mem-alphaは、エージェントに複雑なメモリシステムを効果的に管理するように訓練する強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-09-30T08:02:34Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning [41.94295877935867]
メモリは、エージェントが時間的および空間的依存関係を持つ複雑なタスクに対処できるようにするために不可欠である。
多くの強化学習アルゴリズムにはメモリが組み込まれているが、エージェントのメモリ能力を評価するための普遍的なベンチマークがない。
メモリRLの総合ベンチマークであるMIKASAを紹介する。
論文 参考訳(メタデータ) (2025-02-14T20:46:19Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。