論文の概要: PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory
- arxiv url: http://arxiv.org/abs/2512.06688v1
- Date: Sun, 07 Dec 2025 06:48:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.468883
- Title: PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory
- Title(参考訳): PersonaMem-v2: ユーザペルソナとエージェントメモリの学習によるパーソナライズインテリジェンスを目指して
- Authors: Bowen Jiang, Yuan Yuan, Maohao Shen, Zhuoqun Hao, Zhangchen Xu, Zichen Chen, Ziyi Liu, Anvesh Rao Vijjini, Jiashu He, Hanchao Yu, Radha Poovendran, Gregory Wornell, Lyle Ungar, Dan Roth, Sihao Chen, Camillo Jose Taylor,
- Abstract要約: パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
- 参考スコア(独自算出の注目度): 56.81126490418336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalization is one of the next milestones in advancing AI capability and alignment. We introduce PersonaMem-v2, the state-of-the-art dataset for LLM personalization that simulates 1,000 realistic user-chatbot interactions on 300+ scenarios, 20,000+ user preferences, and 128k-token context windows, where most user preferences are implicitly revealed to reflect real-world interactions. Using this data, we investigate how reinforcement fine-tuning enables a model to improve its long-context reasoning capabilities for user understanding and personalization. We also develop a framework for training an agentic memory system, which maintains a single, human-readable memory that grows with each user over time. In our experiments, frontier LLMs still struggle with implicit personalization, achieving only 37-48% accuracy. While they support long context windows, reasoning remains the bottleneck for implicit personalization tasks. Using reinforcement fine-tuning, we successfully train Qwen3-4B to outperforms GPT-5, reaching 53% accuracy in implicit personalization. Moreover, our agentic memory framework achieves state-of-the-art 55% accuracy while using 16x fewer input tokens, relying on a 2k-token memory instead of full 32k conversation histories. These results underscore the impact of our dataset and demonstrate agentic memory as a scalable path toward real-world personalized intelligence.
- Abstract(参考訳): パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
我々は,LLMパーソナライズのための最先端のデータセットであるPersonaMem-v2を紹介し,300以上のシナリオ,20,000以上のユーザ嗜好,128kのコンテキストウィンドウ上で,現実的なユーザ-チャットボットインタラクションをシミュレートする。
このデータを用いて,ユーザ理解とパーソナライズのための長文推論能力をモデルが改善する方法について検討する。
また、エージェントメモリシステムのトレーニングフレームワークを開発し、時間とともにユーザとともに成長する単一の可読メモリを保守する。
我々の実験では、フロンティアのLSMは暗黙のパーソナライゼーションに苦慮し、37-48%の精度しか達成できなかった。
長いコンテキストウィンドウをサポートするが、推論は暗黙のパーソナライズタスクのボトルネックのままである。
強化微調整を用いてQwen3-4Bをトレーニングし,GPT-5を53%の精度で評価した。
さらに、エージェントメモリフレームワークは、32kの会話履歴の代わりに2kのメモリに頼って、16倍少ない入力トークンを使用しながら、最先端の55%の精度を実現している。
これらの結果は、我々のデータセットの影響を明らかにし、エージェントメモリを現実世界のパーソナライズされたインテリジェンスへのスケーラブルなパスとして示す。
関連論文リスト
- Learning Personalized Agents from Human Feedback [36.47803872623135]
連続的なパーソナライズのための枠組みであるPAHF(Personalized Agents from Human Feedback)を紹介する。
PAHFは、ユーザ毎の明示的なメモリを使用して、ライブインタラクションからオンラインで学習する。
ベンチマークは、エージェントが最初の好みをスクラッチから学習し、その後ペルソナシフトに適応する能力を定量化する。
論文 参考訳(メタデータ) (2026-02-18T04:18:47Z) - MAPLE: A Sub-Agent Architecture for Memory, Learning, and Personalization in Agentic AI Systems [0.0]
大規模言語モデル(LLM)エージェントは複雑なタスクのための強力なツールとして登場したが、個々のユーザへの適応能力は基本的に制限されている。
現在のシステムは3つの異なるメカニズムではなく、記憶、学習、パーソナライゼーションを統一された能力として扱う。
メモリは記憶と検索のインフラを処理し、学習は蓄積された相互作用から知性を非同期に抽出し、パーソナライゼーションは有限のコンテキスト予算内で学習知識をリアルタイムで適用する。
論文 参考訳(メタデータ) (2026-02-03T03:46:39Z) - The Algorithmic Self-Portrait: Deconstructing Memory in ChatGPT [17.579565226391146]
実世界の80人のChatGPTユーザの2,050個のメモリエントリを分析した。
私たちのデータセットの96%のメモリは、会話システムによって一方的に生成されます。
大部分のメモリ(84%)は、ユーザコンテキストで直接ベースになっています。
論文 参考訳(メタデータ) (2026-02-01T21:39:36Z) - HumanLLM: Towards Personalized Understanding and Simulation of Human Nature [72.55730315685837]
HumanLLMは個人のパーソナライズされた理解とシミュレーションのために設計された基礎モデルである。
私たちはまず、Reddit、Twitter、Blogger、Amazonといったプラットフォーム上で、現実世界のユーザデータをキュレートした大規模なコーパスであるCognitive Genomeを構築しました。
次に、多様な学習タスクを定式化し、教師付き微調整を行い、モデルの幅広い個人化された人間の行動、思考、経験を予測する。
論文 参考訳(メタデータ) (2026-01-22T09:27:27Z) - OP-Bench: Benchmarking Over-Personalization for Memory-Augmented Personalized Conversational Agents [55.27061195244624]
オーバーパーソナライゼーションを3つのタイプに分類する。
エージェントは不要な場合でも、ユーザメモリを取得およびオーバーアタッチする傾向があります。
我々の研究は、メモリ拡張対話システムにおいて、より制御可能で適切なパーソナライズに向けた最初の一歩を踏み出した。
論文 参考訳(メタデータ) (2026-01-20T08:27:13Z) - LikeBench: Evaluating Subjective Likability in LLMs for Personalization [11.75597537798083]
第三の軸であるリキスタビリティは、主観的かつユーザエクスペリエンスの中心でありながら、現在のベンチマークでは過小評価されていない、と私たちは主張する。
マルチセッション動的評価フレームワークであるLikeBenchを紹介する。
DeepSeek R1は、メモリ精度が低い(86%、17の事実/注目)が、Qwen3のメモリ精度が高い(93%、43の事実/注目)にもかかわらず、ライカビリティスコアが28%向上した。
GPT-5のようなSOTAモデルでさえ、略してうまく適応する
論文 参考訳(メタデータ) (2025-12-15T08:18:42Z) - CIMemories: A Compositional Benchmark for Contextual Integrity of Persistent Memory in LLMs [62.116710797795314]
大規模言語モデル(LLM)は、パーソナライゼーションとタスクパフォーマンスを向上させるために、過去のインタラクションから永続的なメモリを使用することが多い。
タスクコンテキストに基づいて,LLMがメモリからの情報フローを適切に制御するかどうかを評価するベンチマークであるCIMemoriesを提案する。
論文 参考訳(メタデータ) (2025-11-18T21:51:23Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - On the Way to LLM Personalization: Learning to Remember User Conversations [13.041775936106998]
大規模言語モデル(LLM)は、すぐに様々なタスクの貴重なアシスタントとなりました。
しかし、その効果は、パーソナライズによる人間の好みや行動に対する反応を調整できる能力によって制限されている。
従来の会話の知識をLCMに注入し、冗長でパーソナライズドな会話に将来の作業を可能にすることを提案する。
論文 参考訳(メタデータ) (2024-11-20T15:45:08Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z) - A Cooperative Memory Network for Personalized Task-oriented Dialogue
Systems with Incomplete User Profiles [55.951126447217526]
ユーザプロファイルの完成を前提とせず,タスク指向対話システムについて検討する。
ユーザプロファイルを徐々に強化する新しいメカニズムを持つ協調記憶ネットワーク(CoMemNN)を提案する。
CoMemNNは、ユーザープロファイルを効果的に強化することができ、応答選択精度の点で3.6%の改善につながります。
論文 参考訳(メタデータ) (2021-02-16T18:05:54Z) - PeTra: A Sparsely Supervised Memory Model for People Tracking [50.98911178059019]
メモリスロット内のエンティティを追跡するように設計されたメモリ拡張ニューラルネットワークであるPeTraを提案する。
我々は、重要なモデリング選択を経験的に比較し、強い性能を維持しながら、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
論文 参考訳(メタデータ) (2020-05-06T17:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。