論文の概要: PRIME: Large Language Model Personalization with Cognitive Dual-Memory and Personalized Thought Process
- arxiv url: http://arxiv.org/abs/2507.04607v3
- Date: Fri, 26 Sep 2025 23:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 17:47:09.094773
- Title: PRIME: Large Language Model Personalization with Cognitive Dual-Memory and Personalized Thought Process
- Title(参考訳): PRIME:認知的デュアルメモリとパーソナライズされた思考プロセスを用いた大規模言語モデルパーソナライズ
- Authors: Xinliang Frederick Zhang, Nick Beauchamp, Lu Wang,
- Abstract要約: 大規模言語モデル(LLM)のパーソナライゼーションは、モデルのアウトプットを個人の独特な好みや意見と整合させることを目的としている。
本稿では,エピソードおよびセマンティックメモリ機構を用いた統一フレームワークPRIMEを提案する。
実験はPRIMEの有効性を長文と短文の両方のシナリオで検証する。
- 参考スコア(独自算出の注目度): 6.27203886967197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model (LLM) personalization aims to align model outputs with individuals' unique preferences and opinions. While recent efforts have implemented various personalization methods, a unified theoretical framework that can systematically understand the drivers of effective personalization is still lacking. In this work, we integrate the well-established cognitive dual-memory model into LLM personalization, by mirroring episodic memory to historical user engagements and semantic memory to long-term, evolving user beliefs. Specifically, we systematically investigate memory instantiations and introduce a unified framework, PRIME, using episodic and semantic memory mechanisms. We further augment PRIME with a novel personalized thinking capability inspired by the slow thinking strategy. Moreover, recognizing the absence of suitable benchmarks, we introduce a dataset using Change My View (CMV) from Reddit, specifically designed to evaluate long-context personalization. Extensive experiments validate PRIME's effectiveness across both long- and short-context scenarios. Further analysis confirms that PRIME effectively captures dynamic personalization beyond mere popularity biases.
- Abstract(参考訳): 大規模言語モデル(LLM)のパーソナライゼーションは、モデルのアウトプットを個人の独特な好みや意見と整合させることを目的としている。
近年、様々なパーソナライズ手法が開発されているが、効果的なパーソナライゼーションの要因を体系的に理解できる統一的な理論的枠組みはいまだに欠落している。
本研究では,認知的二重記憶モデルとLLMのパーソナライゼーションを融合し,認識的記憶を歴史的ユーザエンゲージメントに反映し,セマンティックメモリを長期的,進化的ユーザ信念に反映する。
具体的には、メモリインスタンス化を体系的に検討し、エピソードおよびセマンティックメモリ機構を用いて統一されたフレームワークPRIMEを導入する。
我々は、より遅い思考戦略にインスパイアされた新しいパーソナライズされた思考能力でPRIMEをさらに強化する。
さらに、適切なベンチマークがないことを認識して、RedditのChange My View(CMV)を用いたデータセットを導入し、特に長文のパーソナライゼーションを評価するように設計された。
広範囲にわたる実験は、PRIMEの有効性を長文と短文の両方のシナリオで検証する。
さらなる分析により、PRIMEは単なる人気バイアスを超えて動的パーソナライゼーションを効果的に捉えることが確認される。
関連論文リスト
- Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - How Does Personalized Memory Shape LLM Behavior? Benchmarking Rational Preference Utilization in Personalized Assistants [25.83552447206606]
大規模言語モデル(LLM)を利用したアシスタントは、最近、ユーザの好みを記録するメモリメカニズムを統合し、よりパーソナライズされ、ユーザに準拠した応答をもたらす。
RPEvalは、パーソナライズされた意図推論データセットとマルチグラニュラリティ評価プロトコルからなるベンチマークである。
RPEvalは、既存のLCMにおける不合理なパーソナライゼーションの広範な現象を明らかにし、エラーパターン解析を通じて、ユーザエクスペリエンスに悪影響を及ぼすことを示す。
本稿では、メモリ利用を実用的な推論プロセスとして扱い、パーソナライズされた情報の選択的統合を可能にするRP-Reasonerを紹介する。
論文 参考訳(メタデータ) (2026-01-23T10:19:48Z) - OP-Bench: Benchmarking Over-Personalization for Memory-Augmented Personalized Conversational Agents [55.27061195244624]
オーバーパーソナライゼーションを3つのタイプに分類する。
エージェントは不要な場合でも、ユーザメモリを取得およびオーバーアタッチする傾向があります。
我々の研究は、メモリ拡張対話システムにおいて、より制御可能で適切なパーソナライズに向けた最初の一歩を踏み出した。
論文 参考訳(メタデータ) (2026-01-20T08:27:13Z) - Unveiling Inference Scaling for Difference-Aware User Modeling in LLM Personalization [8.34180795290891]
差分対応推論パーソナライゼーションは、推論スケーリングを活用してパーソナライゼーションを強化することで、差分抽出機構を再構築するフレームワークである。
LLMは、関連する特徴次元を自律的に識別し、構造化された定義と記述を生成する。
論文 参考訳(メタデータ) (2025-11-19T12:35:40Z) - Dynamic Affective Memory Management for Personalized LLM Agents [1.7600011132381626]
情緒的シナリオのための新しいメモリ管理システムを提案する。
本システムは,パーソナライズ,論理コヒーレンス,精度において優れた性能を発揮する。
我々の研究は、長期記憶システムの設計に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-10-31T12:12:51Z) - RGMem: Renormalization Group-based Memory Evolution for Language Agent User Profile [8.224917568034572]
物理における古典的再正規化群(RG)のイデオロギーに着想を得た自己進化型メモリフレームワークを提案する。
このフレームワークは対話履歴を複数のスケールで整理することができる。
私たちの研究の中核的な革新は、情報圧縮と出現のマルチスケールプロセスとしてのメモリ進化をモデル化することにあります。
論文 参考訳(メタデータ) (2025-10-18T08:16:46Z) - MemWeaver: A Hierarchical Memory from Textual Interactive Behaviors for Personalized Generation [12.075641773020152]
本稿では,ユーザのテキスト履歴全体を階層記憶に織り込み,パーソナライズされた生成を行うフレームワークを提案する。
MemWeaverは、時間情報と意味情報を統合した2つの補完的なメモリコンポーネントを構築している。
論文 参考訳(メタデータ) (2025-10-09T02:47:21Z) - PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time [87.99027488664282]
PersonaAgentは、汎用的なパーソナライゼーションタスクに対処するために設計されたフレームワークである。
パーソナライズされたメモリモジュールとパーソナライズされたアクションモジュールを統合する。
テストタイムのユーザ嗜好アライメント戦略は、リアルタイムのユーザの嗜好アライメントを保証する。
論文 参考訳(メタデータ) (2025-06-06T17:29:49Z) - Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance [18.820008753896623]
大規模言語モデル(LLM)によって強化されたエンボディードエージェントは,家庭内オブジェクト再構成タスクにおいて高い性能を示した。
しかし、パーソナライズされた支援のためのメモリ利用におけるエンボディードエージェントの有効性は、いまだに過小評価されている。
本稿では,メモリ利用能力の評価を目的とした個人化エージェント評価フレームワークであるMementOについて述べる。
論文 参考訳(メタデータ) (2025-05-22T08:00:10Z) - A Personalized Conversational Benchmark: Towards Simulating Personalized Conversations [112.81207927088117]
PersonaConvBenchは、大規模言語モデル(LLM)とのマルチターン会話におけるパーソナライズされた推論と生成を評価するためのベンチマークである。
我々は,複数の商用およびオープンソース LLM を統一的なプロンプト設定でベンチマークし,パーソナライズされた履歴を組み込むことで大幅な性能向上が得られることを観察した。
論文 参考訳(メタデータ) (2025-05-20T09:13:22Z) - Quantifying Memory Utilization with Effective State-Size [73.52115209375343]
「我々は、テキスト・メモリ利用の尺度を策定する。」
この計量は、textitinput-invariant および textitinput-variant linear operator を持つシステムの基本的なクラスに適合する。
論文 参考訳(メタデータ) (2025-04-28T08:12:30Z) - DRC: Enhancing Personalized Image Generation via Disentangled Representation Composition [69.10628479553709]
大規模マルチモーダルモデル(LMM)を拡張した新しいパーソナライズされた画像生成フレームワークであるDRCを紹介する。
DRCは、履歴画像と参照画像から、ユーザスタイルの好みと意味的な意図をそれぞれ明示的に抽出する。
本研究は2つの重要な学習段階を包含する。1) スタイルと意味的特徴を明確に分離するために二重解離型学習を用い,難易度を考慮した再構成駆動型パラダイムを用いて最適化し,2) パーソナライズド・パーソナライズド・パーソナライズド・ジェネレーションを効果的に適用するパーソナライズド・モデリング。
論文 参考訳(メタデータ) (2025-04-24T08:10:10Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [57.161917758405465]
大規模言語モデル(LLM)におけるパーソナライゼーションは、個々のユーザまたはユーザグループの好みに合わせてモデルをカスタマイズすることを目指している。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、ユーザのプライバシを保護しながら、タスク固有のメトリクスを直接最適化するために、勾配のないメソッドを使用している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Personalization Toolkit: Training Free Personalization of Large Vision Language Models [11.026377387506216]
本稿では,事前学習された視覚基盤モデルを活用することにより,LVLMのパーソナライズに対するトレーニング不要なアプローチを提案する。
モデルに依存しないビジョンツールキットは、広範囲なリトレーニングを必要とせず、フレキシブルで効率的なパーソナライズを可能にする。
論文 参考訳(メタデータ) (2025-02-04T16:19:20Z) - Personalized Large Language Models [1.0881867638866944]
本稿では,大規模言語モデル(LLM)のパーソナライズ手法について検討する。
その結果、パーソナライズされた微調整は、非パーソナライズされたモデルと比較してモデル推論を改善することが示された。
感情認識とヘイトスピーチ検出のためのデータセットの実験は、パーソナライズされた方法で一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-02-14T15:55:30Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z) - PeTra: A Sparsely Supervised Memory Model for People Tracking [50.98911178059019]
メモリスロット内のエンティティを追跡するように設計されたメモリ拡張ニューラルネットワークであるPeTraを提案する。
我々は、重要なモデリング選択を経験的に比較し、強い性能を維持しながら、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
論文 参考訳(メタデータ) (2020-05-06T17:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。