論文の概要: Dynamic Affective Memory Management for Personalized LLM Agents
- arxiv url: http://arxiv.org/abs/2510.27418v1
- Date: Fri, 31 Oct 2025 12:12:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.096256
- Title: Dynamic Affective Memory Management for Personalized LLM Agents
- Title(参考訳): パーソナライズされたLDMエージェントの動的感情記憶管理
- Authors: Junfeng Lu, Yueyan Li,
- Abstract要約: 情緒的シナリオのための新しいメモリ管理システムを提案する。
本システムは,パーソナライズ,論理コヒーレンス,精度において優れた性能を発揮する。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
- 参考スコア(独自算出の注目度): 1.7600011132381626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in large language models are making personalized AI agents a new research focus. While current agent systems primarily rely on personalized external memory databases to deliver customized experiences, they face challenges such as memory redundancy, memory staleness, and poor memory-context integration, largely due to the lack of effective memory updates during interaction. To tackle these issues, we propose a new memory management system designed for affective scenarios. Our approach employs a Bayesian-inspired memory update algorithm with the concept of memory entropy, enabling the agent to autonomously maintain a dynamically updated memory vector database by minimizing global entropy to provide more personalized services. To better evaluate the system's effectiveness in this context, we propose DABench, a benchmark focusing on emotional expression and emotional change toward objects. Experimental results demonstrate that, our system achieves superior performance in personalization, logical coherence, and accuracy. Ablation studies further validate the effectiveness of the Bayesian-inspired update mechanism in alleviating memory bloat. Our work offers new insights into the design of long-term memory systems.
- Abstract(参考訳): 大規模言語モデルの進歩は、パーソナライズされたAIエージェントを新たな研究対象にしている。
現在のエージェントシステムは、主にカスタマイズされたエクスペリエンスを提供するためにパーソナライズされた外部メモリデータベースに依存しているが、メモリ冗長性、メモリの安定性、メモリコンテキスト統合の貧弱といった課題に直面している。
これらの課題に対処するため,情緒的なシナリオを対象とした新しいメモリ管理システムを提案する。
提案手法では,メモリエントロピーの概念を取り入れたベイズ型メモリ更新アルゴリズムを用いて,グローバルエントロピーを最小化し,動的に更新されたメモリベクトルデータベースを自律的に維持し,よりパーソナライズされたサービスを提供する。
この文脈におけるシステムの有効性をよりよく評価するために,オブジェクトに対する感情表現と感情変化に着目したベンチマークであるDABenchを提案する。
実験結果から,本システムはパーソナライズ,論理コヒーレンス,精度において優れた性能を発揮することが示された。
アブレーション研究は、記憶の肥大を緩和するバイーシアン誘発更新機構の有効性をさらに検証した。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
関連論文リスト
- MemEmo: Evaluating Emotion in Memory Systems of Agents [30.12443912702673]
本稿では、感情情報を扱う際の記憶システムの性能を評価するための感情強調型メモリ評価ベンチマークを提案する。
textbfHuman-textbfLike textbfMemory textbfEmotion(textbfHLME)データセットを開発した。
実験結果から,3つのタスクにまたがるロバストな性能は,いずれのシステムも達成できていないことが示唆された。
論文 参考訳(メタデータ) (2026-02-27T11:46:08Z) - MetaMem: Evolving Meta-Memory for Knowledge Utilization through Self-Reflective Symbolic Optimization [57.17751568928966]
自己進化型メタメモリでメモリシステムを拡張するフレームワークであるMetaMemを提案する。
メタメモリ最適化の間、MetaMemは異なるタスク間で伝達可能な知識利用経験を反復的に蒸留する。
大規模な実験ではMetaMemの有効性が示され、これは強いベースラインを3.6%以上上回っている。
論文 参考訳(メタデータ) (2026-01-27T04:46:23Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction [35.20324450282101]
エージェントのメモリ依存を明示的かつユーザ制御可能な次元としてモデル化できることを示す。
textbfSteerable textbfMemory Agent, textttSteeMを提案する。
論文 参考訳(メタデータ) (2026-01-08T16:54:30Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Memory Bear AI A Breakthrough from Memory to Cognition Toward Artificial General Intelligence [1.9075119881212463]
大規模言語モデル(LLM)は、メモリに固有の制限に直面している。
本稿では,認知科学の原理を基礎とした,人間のようなメモリアーキテクチャを構築するメモリベアシステムを提案する。
論文 参考訳(メタデータ) (2025-12-17T06:06:18Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。