論文の概要: Inside Out: Evolving User-Centric Core Memory Trees for Long-Term Personalized Dialogue Systems
- arxiv url: http://arxiv.org/abs/2601.05171v1
- Date: Thu, 08 Jan 2026 17:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.319803
- Title: Inside Out: Evolving User-Centric Core Memory Trees for Long-Term Personalized Dialogue Systems
- Title(参考訳): 内部:長期パーソナライズされた対話システムのためのユーザ中心コアメモリツリーの進化
- Authors: Jihao Zhao, Ding Chen, Zhaoxin Fan, Kerun Xu, Mengting Hu, Bo Tang, Feiyu Xiong, Zhiyu li,
- Abstract要約: Inside Outは、グローバルにメンテナンスされているPersonaTreeを長期ユーザープロファイリングのキャリアとして利用するフレームワークである。
我々は、プロセスベースの報酬で強化学習を通じて軽量なMemListenerをトレーニングし、構造化された、実行可能で、解釈可能なADD、UDDATE、DELETE、NO_OP操作を生成する。
実験により、ペルソナTreeは、コンテキストノイズの抑制とペルソナの一貫性維持において、フルテキスト結合と様々なパーソナライズドメモリシステムより優れていることが示された。
- 参考スコア(独自算出の注目度): 41.72224734496617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing long-term personalized dialogue systems struggle to reconcile unbounded interaction streams with finite context constraints, often succumbing to memory noise accumulation, reasoning degradation, and persona inconsistency. To address these challenges, this paper proposes Inside Out, a framework that utilizes a globally maintained PersonaTree as the carrier of long-term user profiling. By constraining the trunk with an initial schema and updating the branches and leaves, PersonaTree enables controllable growth, achieving memory compression while preserving consistency. Moreover, we train a lightweight MemListener via reinforcement learning with process-based rewards to produce structured, executable, and interpretable {ADD, UPDATE, DELETE, NO_OP} operations, thereby supporting the dynamic evolution of the personalized tree. During response generation, PersonaTree is directly leveraged to enhance outputs in latency-sensitive scenarios; when users require more details, the agentic mode is triggered to introduce details on-demand under the constraints of the PersonaTree. Experiments show that PersonaTree outperforms full-text concatenation and various personalized memory systems in suppressing contextual noise and maintaining persona consistency. Notably, the small MemListener model achieves memory-operation decision performance comparable to, or even surpassing, powerful reasoning models such as DeepSeek-R1-0528 and Gemini-3-Pro.
- Abstract(参考訳): 既存の長期パーソナライズされた対話システムは、有限コンテキスト制約で、しばしば記憶ノイズの蓄積、推論の劣化、ペルソナの不整合に結びつく、無制限な対話ストリームの整合に苦慮している。
このような課題に対処するために,グローバルに保守されているPersonaTreeを長期ユーザプロファイリングのキャリアとして利用するフレームワークであるInside Outを提案する。
トランクを初期スキーマで制約し、枝と葉を更新することにより、PersonaTreeは、一貫性を維持しながらメモリ圧縮を達成し、制御可能な成長を可能にする。
さらに、プロセスベースの報酬による強化学習を通じて軽量なMemListenerをトレーニングし、構造化、実行可能、解釈可能な {ADD, UPDATE, DELETE, NO_OP} 操作を生成し、パーソナライズされたツリーの動的進化をサポートする。
レスポンス生成の間、PersonaTreeは遅延に敏感なシナリオのアウトプットを強化するために直接利用されます。
実験により、ペルソナTreeは、コンテキストノイズの抑制とペルソナの一貫性維持において、フルテキスト結合と様々なパーソナライズドメモリシステムより優れていることが示された。
特に、小さなMemListenerモデルは、DeepSeek-R1-0528やGemini-3-Proのような強力な推論モデルに匹敵する、あるいは超越したメモリ操作の決定性能を実現している。
関連論文リスト
- AdmTree: Compressing Lengthy Context with Adaptive Semantic Trees [66.39371821756649]
適応的で階層的なコンテキスト圧縮のための新しいフレームワークであるAdmTreeを提案する。
AdmTreeは情報密度に基づいて入力されたセグメントをgistトークンを利用して、可変長のセグメントをセマンティックバイナリツリーの葉として要約する。
グローバルなセマンティックコヒーレンスと共に細かな詳細を保存し、位置バイアスを緩和し、コンテンツに動的に適応することによって、AdmTreeは長いコンテキストのセマンティック情報をしっかりと保持する。
論文 参考訳(メタデータ) (2025-12-04T08:04:19Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Mem-PAL: Towards Memory-based Personalized Dialogue Assistants for Long-term User-Agent Interaction [55.24448139349266]
PAL-Benchは、長期ユーザエージェントインタラクションにおけるサービス指向アシスタントのパーソナライズ機能を評価するために設計された新しいベンチマークである。
サービス指向のインタラクションをパーソナライズするために、階層的で異質なメモリフレームワークであるH$2$Memoryを提案する。
論文 参考訳(メタデータ) (2025-11-17T14:22:32Z) - RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile [8.224917568034572]
物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
論文 参考訳(メタデータ) (2025-10-18T08:16:46Z) - Toward Multi-Session Personalized Conversation: A Large-Scale Dataset and Hierarchical Tree Framework for Implicit Reasoning [30.54506564763053]
2500のサンプルを持つ大規模長期データセットであるImplexConvを紹介し、それぞれに約100の会話セッションを含む。
また,会話履歴を複数のレベルの要約に構造化する新しい階層木フレームワークであるTaciTreeを提案する。
論文 参考訳(メタデータ) (2025-03-10T07:59:41Z) - From Isolated Conversations to Hierarchical Schemas: Dynamic Tree Memory Representation for LLMs [9.822315423251395]
動的木構造メモリ表現を活用するアルゴリズムであるMemTreeを導入し、情報の組織化、検索、統合を最適化する。
我々のアルゴリズムは、新しい情報や既存の情報のセマンティック埋め込みを比較して、このメモリ構造を動的に適応させ、モデルのコンテキスト認識を強化する。
論文 参考訳(メタデータ) (2024-10-17T21:47:11Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。