論文の概要: MemWeaver: A Hierarchical Memory from Textual Interactive Behaviors for Personalized Generation
- arxiv url: http://arxiv.org/abs/2510.07713v1
- Date: Thu, 09 Oct 2025 02:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.822284
- Title: MemWeaver: A Hierarchical Memory from Textual Interactive Behaviors for Personalized Generation
- Title(参考訳): MemWeaver:パーソナライズドジェネレーションのためのテキスト対話行動からの階層記憶
- Authors: Shuo Yu, Mingyue Cheng, Daoyu Wang, Qi Liu, Zirui Liu, Ze Guo, Xiaoyu Tao,
- Abstract要約: 本稿では,ユーザのテキスト履歴全体を階層記憶に織り込み,パーソナライズされた生成を行うフレームワークを提案する。
MemWeaverは、時間情報と意味情報を統合した2つの補完的なメモリコンポーネントを構築している。
- 参考スコア(独自算出の注目度): 12.075641773020152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The primary form of user-internet engagement is shifting from leveraging implicit feedback signals, such as browsing and clicks, to harnessing the rich explicit feedback provided by textual interactive behaviors. This shift unlocks a rich source of user textual history, presenting a profound opportunity for a deeper form of personalization. However, prevailing approaches offer only a shallow form of personalization, as they treat user history as a flat list of texts for retrieval and fail to model the rich temporal and semantic structures reflecting dynamic nature of user interests. In this work, we propose \textbf{MemWeaver}, a framework that weaves the user's entire textual history into a hierarchical memory to power deeply personalized generation. The core innovation of our memory lies in its ability to capture both the temporal evolution of interests and the semantic relationships between different activities. To achieve this, MemWeaver builds two complementary memory components that both integrate temporal and semantic information, but at different levels of abstraction: behavioral memory, which captures specific user actions, and cognitive memory, which represents long-term preferences. This dual-component memory serves as a unified representation of the user, allowing large language models (LLMs) to reason over both concrete behaviors and abstracted traits. Experiments on the Language Model Personalization (LaMP) benchmark validate the efficacy of MemWeaver. Our code is available\footnote{https://github.com/fishsure/MemWeaver}.
- Abstract(参考訳): ユーザ・インターネット・エンゲージメントの主要な形態は、閲覧やクリックなどの暗黙的なフィードバック信号を活用することから、テキスト対話的な振る舞いによって提供されるリッチな明示的なフィードバックを活用することへの移行である。
このシフトは、ユーザーテキスト履歴の豊富な情報源を解放し、より深いパーソナライゼーションの機会を提供する。
しかし、一般的なアプローチは、ユーザ履歴を検索のための平らなテキストのリストとして扱い、ユーザ興味の動的な性質を反映した豊かな時間的・意味的な構造をモデル化することができないため、パーソナライゼーションの浅い形態しか提供しない。
本研究では,ユーザのテキスト履歴全体を階層記憶に織り込み,パーソナライズされた生成を行うフレームワークである‘textbf{MemWeaver} を提案する。
私たちの記憶の中核となる革新は、関心の時間的進化と異なる活動間の意味的関係の両方を捉える能力にある。
これを実現するため、MemWeaverは2つの補完的メモリコンポーネントを構築し、時間的情報と意味的情報を統合しているが、異なる抽象化レベルでは、特定のユーザーアクションをキャプチャする行動記憶と、長期的な好みを表す認知記憶である。
このデュアルコンポーネントメモリは、ユーザを統一した表現として機能し、大きな言語モデル(LLM)が具体的な振る舞いと抽象された特性の両方を推論することを可能にする。
言語モデルパーソナライゼーション(LaMP)ベンチマークの実験は、MemWeaverの有効性を検証する。
私たちのコードは利用可能です。
関連論文リスト
- Leveraging Scene Context with Dual Networks for Sequential User Behavior Modeling [58.72480539725212]
本稿では,シーンとアイテム間の動的興味や相互作用を捉えるために,新しいDSPネットワークを提案する。
DSPnetは、アイテムやシーンに対するユーザの動的関心を学習するための2つの並列ネットワークと、将来の振る舞いを予測するためのインタープレイをキャプチャするシーケンス機能拡張モジュールで構成されている。
論文 参考訳(メタデータ) (2025-09-30T12:26:57Z) - PRIME: Large Language Model Personalization with Cognitive Dual-Memory and Personalized Thought Process [6.27203886967197]
大規模言語モデル(LLM)のパーソナライゼーションは、モデルのアウトプットを個人の独特な好みや意見と整合させることを目的としている。
本稿では,エピソードおよびセマンティックメモリ機構を用いた統一フレームワークPRIMEを提案する。
実験はPRIMEの有効性を長文と短文の両方のシナリオで検証する。
論文 参考訳(メタデータ) (2025-07-07T01:54:34Z) - Dynamic Textual Prompt For Rehearsal-free Lifelong Person Re-identification [30.782126710974165]
生涯にわたる人物の再識別は、カメラを越えて人々を認識し、継続的なデータストリームから新たな知識を統合する。
主な課題は、パラメータの更新とドメインシフトに起因する破滅的な忘れに対処することである。
本稿では,テキスト記述をガイダンスとして用いて,サンプルを保持せずにドメイン間の不変性を学習するReIDモデルを提案する。
論文 参考訳(メタデータ) (2024-11-09T00:57:19Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z) - Black-box Unsupervised Domain Adaptation with Bi-directional
Atkinson-Shiffrin Memory [59.51934126717572]
Black-box Unsupervised Domain adaptation (UDA)は、トレーニング中にソースデータまたはソースモデルにアクセスすることなく、ターゲットデータのソース予測で学習する。
両方向の記憶機構であるBiMemを提案する。
BiMemは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、さまざまな視覚的タスクに一貫して優れたドメイン適応性能を実現する。
論文 参考訳(メタデータ) (2023-08-25T08:06:48Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。