論文の概要: RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile
- arxiv url: http://arxiv.org/abs/2510.16392v1
- Date: Sat, 18 Oct 2025 08:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.979634
- Title: RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile
- Title(参考訳): RGMem: 言語エージェントユーザプロファイルのための正規化グループベースのメモリ進化
- Authors: Ao Tian, Yunfeng Lu, Xinxin Fan, Changhao Wang, Lanzhi Zhou, Yeyao Zhang, Yanfang Liu,
- Abstract要約: 物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
- 参考スコア(独自算出の注目度): 8.224917568034572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized and continuous interactions are the key to enhancing user experience in today's large language model (LLM)-based conversational systems, however, the finite context windows and static parametric memory make it difficult to model the cross-session long-term user states and behavioral consistency. Currently, the existing solutions to this predicament, such as retrieval-augmented generation (RAG) and explicit memory systems, primarily focus on fact-level storage and retrieval, lacking the capability to distill latent preferences and deep traits from the multi-turn dialogues, which limits the long-term and effective user modeling, directly leading to the personalized interactions remaining shallow, and hindering the cross-session continuity. To realize the long-term memory and behavioral consistency for Language Agents in LLM era, we propose a self-evolving memory framework RGMem, inspired by the ideology of classic renormalization group (RG) in physics, this framework enables to organize the dialogue history in multiple scales: it first extracts semantics and user insights from episodic fragments, then through hierarchical coarse-graining and rescaling operations, progressively forms a dynamically-evolved user profile. The core innovation of our work lies in modeling memory evolution as a multi-scale process of information compression and emergence, which accomplishes the high-level and accurate user profiles from noisy and microscopic-level interactions.
- Abstract(参考訳): パーソナライズされた継続的なインタラクションは、今日の大規模言語モデル(LLM)ベースの会話システムにおいて、ユーザエクスペリエンスを向上させる鍵となるものだが、有限コンテキストウィンドウと静的パラメトリックメモリは、クロスセッションの長期ユーザ状態と行動整合性をモデル化するのが困難である。
現在、検索強化生成(RAG)や明示的なメモリシステムといった既存のソリューションは、主にファクトレベルの記憶と検索に焦点を当てており、長期的かつ効果的なユーザーモデリングを制限するマルチターンダイアログから潜伏した好みや深い特徴を抽出する能力に欠けており、パーソナライズされたインタラクションが不足し、セッション間の連続性を妨げている。
LLM時代の言語エージェントの長期記憶と行動整合性を実現するために,物理における古典的再正規化グループ(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークRGMemを提案する。
我々の研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとして記憶の進化をモデル化することであり、ノイズや顕微鏡レベルの相互作用から高レベルで正確なユーザープロファイルを実現する。
関連論文リスト
- Preference-Aware Memory Update for Long-Term LLM Agents [27.776042930733784]
LLMベースのエージェントの推論能力に影響を与える重要な要因の1つは、長期記憶を活用する能力である。
本稿では、動的かつパーソナライズされたメモリリファインメントを実現するためのPreference-Aware Memory Update Mechanism (PAMU)を提案する。
論文 参考訳(メタデータ) (2025-10-10T06:49:35Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - SynapticRAG: Enhancing Temporal Memory Retrieval in Large Language Models through Synaptic Mechanisms [8.787174594966492]
本稿では、時間的関連トリガーと生物学的に誘発されるシナプス伝達機構を組み合わせたシナプスRAGを提案する。
本手法では, 時間的関連トリガーとシナプス様刺激伝達を用いて, 関連する対話履歴を同定する。
4つのデータセットの実験では、SynapticRAGは最大14.66%までの複数のメトリクスで一貫した改善を達成している。
論文 参考訳(メタデータ) (2024-10-17T13:51:03Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。