論文の概要: Dynamic Affective Memory Management for Personalized LLM Agents
- arxiv url: http://arxiv.org/abs/2510.27418v1
- Date: Fri, 31 Oct 2025 12:12:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.096256
- Title: Dynamic Affective Memory Management for Personalized LLM Agents
- Title(参考訳): パーソナライズされたLDMエージェントの動的感情記憶管理
- Authors: Junfeng Lu, Yueyan Li,
- Abstract要約: 情緒的シナリオのための新しいメモリ管理システムを提案する。
本システムは,パーソナライズ,論理コヒーレンス,精度において優れた性能を発揮する。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
- 参考スコア(独自算出の注目度): 1.7600011132381626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in large language models are making personalized AI agents a new research focus. While current agent systems primarily rely on personalized external memory databases to deliver customized experiences, they face challenges such as memory redundancy, memory staleness, and poor memory-context integration, largely due to the lack of effective memory updates during interaction. To tackle these issues, we propose a new memory management system designed for affective scenarios. Our approach employs a Bayesian-inspired memory update algorithm with the concept of memory entropy, enabling the agent to autonomously maintain a dynamically updated memory vector database by minimizing global entropy to provide more personalized services. To better evaluate the system's effectiveness in this context, we propose DABench, a benchmark focusing on emotional expression and emotional change toward objects. Experimental results demonstrate that, our system achieves superior performance in personalization, logical coherence, and accuracy. Ablation studies further validate the effectiveness of the Bayesian-inspired update mechanism in alleviating memory bloat. Our work offers new insights into the design of long-term memory systems.
- Abstract(参考訳): 大規模言語モデルの進歩は、パーソナライズされたAIエージェントを新たな研究対象にしている。
現在のエージェントシステムは、主にカスタマイズされたエクスペリエンスを提供するためにパーソナライズされた外部メモリデータベースに依存しているが、メモリ冗長性、メモリの安定性、メモリコンテキスト統合の貧弱といった課題に直面している。
これらの課題に対処するため,情緒的なシナリオを対象とした新しいメモリ管理システムを提案する。
提案手法では,メモリエントロピーの概念を取り入れたベイズ型メモリ更新アルゴリズムを用いて,グローバルエントロピーを最小化し,動的に更新されたメモリベクトルデータベースを自律的に維持し,よりパーソナライズされたサービスを提供する。
この文脈におけるシステムの有効性をよりよく評価するために,オブジェクトに対する感情表現と感情変化に着目したベンチマークであるDABenchを提案する。
実験結果から,本システムはパーソナライズ,論理コヒーレンス,精度において優れた性能を発揮することが示された。
アブレーション研究は、記憶の肥大を緩和するバイーシアン誘発更新機構の有効性をさらに検証した。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
関連論文リスト
- MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。