論文の概要: RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile
- arxiv url: http://arxiv.org/abs/2510.16392v1
- Date: Sat, 18 Oct 2025 08:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.979634
- Title: RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile
- Title(参考訳): RGMem: 言語エージェントユーザプロファイルのための正規化グループベースのメモリ進化
- Authors: Ao Tian, Yunfeng Lu, Xinxin Fan, Changhao Wang, Lanzhi Zhou, Yeyao Zhang, Yanfang Liu,
- Abstract要約: 物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
- 参考スコア(独自算出の注目度): 8.224917568034572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized and continuous interactions are the key to enhancing user experience in today's large language model (LLM)-based conversational systems, however, the finite context windows and static parametric memory make it difficult to model the cross-session long-term user states and behavioral consistency. Currently, the existing solutions to this predicament, such as retrieval-augmented generation (RAG) and explicit memory systems, primarily focus on fact-level storage and retrieval, lacking the capability to distill latent preferences and deep traits from the multi-turn dialogues, which limits the long-term and effective user modeling, directly leading to the personalized interactions remaining shallow, and hindering the cross-session continuity. To realize the long-term memory and behavioral consistency for Language Agents in LLM era, we propose a self-evolving memory framework RGMem, inspired by the ideology of classic renormalization group (RG) in physics, this framework enables to organize the dialogue history in multiple scales: it first extracts semantics and user insights from episodic fragments, then through hierarchical coarse-graining and rescaling operations, progressively forms a dynamically-evolved user profile. The core innovation of our work lies in modeling memory evolution as a multi-scale process of information compression and emergence, which accomplishes the high-level and accurate user profiles from noisy and microscopic-level interactions.
- Abstract(参考訳): パーソナライズされた継続的なインタラクションは、今日の大規模言語モデル(LLM)ベースの会話システムにおいて、ユーザエクスペリエンスを向上させる鍵となるものだが、有限コンテキストウィンドウと静的パラメトリックメモリは、クロスセッションの長期ユーザ状態と行動整合性をモデル化するのが困難である。
現在、検索強化生成(RAG)や明示的なメモリシステムといった既存のソリューションは、主にファクトレベルの記憶と検索に焦点を当てており、長期的かつ効果的なユーザーモデリングを制限するマルチターンダイアログから潜伏した好みや深い特徴を抽出する能力に欠けており、パーソナライズされたインタラクションが不足し、セッション間の連続性を妨げている。
LLM時代の言語エージェントの長期記憶と行動整合性を実現するために,物理における古典的再正規化グループ(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークRGMemを提案する。
我々の研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとして記憶の進化をモデル化することであり、ノイズや顕微鏡レベルの相互作用から高レベルで正確なユーザープロファイルを実現する。
関連論文リスト
- ES-MemEval: Benchmarking Conversational Agents on Personalized Long-Term Emotional Support [11.480342895892404]
大きな言語モデル (LLM) は会話エージェントとして大きな可能性を示している。
しかし、その有効性は、堅牢な長期記憶の欠陥によって制限されている。
ES-MemEvalは5つのコアメモリ機能を体系的に評価するベンチマークである。
EvoEmoは、パーソナライズされた長期的な感情的サポートのためのデータセットである。
論文 参考訳(メタデータ) (2026-02-02T09:58:26Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction [35.20324450282101]
エージェントのメモリ依存を明示的かつユーザ制御可能な次元としてモデル化できることを示す。
textbfSteerable textbfMemory Agent, textttSteeMを提案する。
論文 参考訳(メタデータ) (2026-01-08T16:54:30Z) - EvolMem: A Cognitive-Driven Benchmark for Multi-Session Dialogue Memory [63.84216832544323]
EvolMemは、大規模言語モデル(LLM)とエージェントシステムのマルチセッションメモリ機能を評価するための新しいベンチマークである。
このベンチマークを構築するために,話題から始まる生成と物語から着想を得た変換からなるハイブリッドデータ合成フレームワークを提案する。
広範囲な評価により、LLMが全てのメモリ次元で常に他よりも優れていることが分かる。
論文 参考訳(メタデータ) (2026-01-07T03:14:42Z) - Mem-Gallery: Benchmarking Multimodal Long-Term Conversational Memory for MLLM Agents [76.76004970226485]
長期記憶はマルチモーダル大言語モデル(MLLM)エージェントにとって重要な機能である。
Mem-GalleryはMLLMエージェントのマルチモーダル長期会話メモリ評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2026-01-07T02:03:13Z) - Memoria: A Scalable Agentic Memory Framework for Personalized Conversational AI [0.6840655769002751]
エージェントメモリは大規模言語モデル(LLM)のキーイネーブラーとして登場しつつある
我々は,LLMベースの会話システムを永続的,解釈可能,コンテキストに富んだメモリで拡張するモジュール型メモリフレームワークであるMemoriaを紹介する。
我々は、ステートレスLLMインタフェースとエージェントメモリシステムとのギャップを埋めることで、Memoriaがスケーラブルでパーソナライズされた対話型人工知能(AI)を実現する方法を実証する。
論文 参考訳(メタデータ) (2025-12-14T13:38:06Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Can We Predict the Next Question? A Collaborative Filtering Approach to Modeling User Behavior [16.241726074740082]
大規模言語モデル(LLM)は、言語理解と生成に優れ、高度な対話とレコメンデーションシステムの動力となっている。
本稿では,言語モデリングと行動シーケンスモデリングのギャップを埋めるために,協調フィルタリングによる質問予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-17T04:01:20Z) - Preference-Aware Memory Update for Long-Term LLM Agents [27.776042930733784]
LLMベースのエージェントの推論能力に影響を与える重要な要因の1つは、長期記憶を活用する能力である。
本稿では、動的かつパーソナライズされたメモリリファインメントを実現するためのPreference-Aware Memory Update Mechanism (PAMU)を提案する。
論文 参考訳(メタデータ) (2025-10-10T06:49:35Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - SynapticRAG: Enhancing Temporal Memory Retrieval in Large Language Models through Synaptic Mechanisms [8.787174594966492]
本稿では、時間的関連トリガーと生物学的に誘発されるシナプス伝達機構を組み合わせたシナプスRAGを提案する。
本手法では, 時間的関連トリガーとシナプス様刺激伝達を用いて, 関連する対話履歴を同定する。
4つのデータセットの実験では、SynapticRAGは最大14.66%までの複数のメトリクスで一貫した改善を達成している。
論文 参考訳(メタデータ) (2024-10-17T13:51:03Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。