論文の概要: Beyond Heuristics: A Decision-Theoretic Framework for Agent Memory Management
- arxiv url: http://arxiv.org/abs/2512.21567v1
- Date: Thu, 25 Dec 2025 08:23:03 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:05:11.881199
- Title: Beyond Heuristics: A Decision-Theoretic Framework for Agent Memory Management
- Title(参考訳): ヒューリスティックスを超えて - エージェントメモリ管理のための決定論的フレームワーク
- Authors: Changzhi Sun, Xiangyu Chen, Jixiang Luo, Dell Zhang, Xuelong Li,
- Abstract要約: メモリ管理は、不確実性の下でのシーケンシャルな意思決定問題と見なされるべきである。
私たちの貢献は、新しいアルゴリズムではなく、アプローチの限界を明確にする原則的なリフレーミングです。
- 参考スコア(独自算出の注目度): 49.71055327567513
- License:
- Abstract: External memory is a key component of modern large language model (LLM) systems, enabling long-term interaction and personalization. Despite its importance, memory management is still largely driven by hand-designed heuristics, offering little insight into the long-term and uncertain consequences of memory decisions. In practice, choices about what to read or write shape future retrieval and downstream behavior in ways that are difficult to anticipate. We argue that memory management should be viewed as a sequential decision-making problem under uncertainty, where the utility of memory is delayed and dependent on future interactions. To this end, we propose DAM (Decision-theoretic Agent Memory), a decision-theoretic framework that decomposes memory management into immediate information access and hierarchical storage maintenance. Within this architecture, candidate operations are evaluated via value functions and uncertainty estimators, enabling an aggregate policy to arbitrate decisions based on estimated long-term utility and risk. Our contribution is not a new algorithm, but a principled reframing that clarifies the limitations of heuristic approaches and provides a foundation for future research on uncertainty-aware memory systems.
- Abstract(参考訳): 外部メモリは、長期の相互作用とパーソナライズを可能にする、現代の大規模言語モデル(LLM)システムの鍵となるコンポーネントである。
その重要性にもかかわらず、メモリ管理は依然として手書きのヒューリスティックによって推進されており、メモリ決定の長期的および不確実な結果についての洞察はほとんど得られていない。
実際には、予測が難しい方法で、形状検索や下流行動の読み書きの選択を行う。
我々は,メモリ管理を不確実性の下での逐次決定問題と見なすべきであり,メモリの有効性は遅延し,将来的な相互作用に依存すると論じている。
そこで我々は,DAM(Decision-theoretic Agent Memory)を提案する。これは,メモリ管理を即時情報アクセスと階層的ストレージ管理に分解する決定論的フレームワークである。
このアーキテクチャ内では、候補操作は値関数と不確実性推定器を介して評価され、予測された長期的効用とリスクに基づいて決定を調停することができる。
我々の貢献は、新しいアルゴリズムではなく、ヒューリスティックアプローチの限界を明確にし、不確実性を考慮したメモリシステムに関する将来の研究の基盤を提供する原則的リフレーミングである。
関連論文リスト
- Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Memory Allocation in Resource-Constrained Reinforcement Learning [8.866141780407903]
リソースの制約は、学習と意思決定の両方を根本的に変えることができます。
標準的な強化学習アルゴリズムを用いて、未知環境をナビゲートする際のメモリ制約がエージェントの性能に与える影響について検討する。
特に、メモリ制限されたエージェントはジレンマに直面している:そのモデルを使用して計画を作成するのとは対照的に、そのエージェントの内部プロセス、例えば世界モデルを見積もるなど、そのエージェントの内部プロセスに制限されたメモリのどのくらいを割り当てるべきか?
論文 参考訳(メタデータ) (2025-06-09T21:15:37Z) - CAIM: Development and Evaluation of a Cognitive AI Memory Framework for Long-Term Interaction with Intelligent Agents [1.6082737760346446]
大規模言語モデル(LLM)は人工知能(AI)の分野を進歩させ、インタラクティブシステムのための強力なイネーブラーとなっている。
ユーザに対して適応する必要のある長期的なインタラクションや、常に変化する環境のコンテキスト的知識や理解において、依然として課題に直面しています。
これらの課題を克服するためには、インタラクションセッション間で関連情報を効率的に検索し保存するために、全体論的メモリモデリングが必要である。
コンピュータ化されたモデルで人間の思考プロセスをシミュレートすることを目的とした認知AIは、思考、記憶機構、意思決定といった興味深い側面を強調している。
論文 参考訳(メタデータ) (2025-05-19T12:33:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。