論文の概要: OP-Bench: Benchmarking Over-Personalization for Memory-Augmented Personalized Conversational Agents
- arxiv url: http://arxiv.org/abs/2601.13722v1
- Date: Tue, 20 Jan 2026 08:27:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.227122
- Title: OP-Bench: Benchmarking Over-Personalization for Memory-Augmented Personalized Conversational Agents
- Title(参考訳): OP-Bench: メモリ拡張パーソナライズされた会話エージェントのためのオーバーパーソナライゼーションのベンチマーク
- Authors: Yulin Hu, Zimo Long, Jiahe Guo, Xingyu Sui, Xing Fu, Weixiang Zhao, Yanyan Zhao, Bing Qin,
- Abstract要約: オーバーパーソナライゼーションを3つのタイプに分類する。
エージェントは不要な場合でも、ユーザメモリを取得およびオーバーアタッチする傾向があります。
我々の研究は、メモリ拡張対話システムにおいて、より制御可能で適切なパーソナライズに向けた最初の一歩を踏み出した。
- 参考スコア(独自算出の注目度): 55.27061195244624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory-augmented conversational agents enable personalized interactions using long-term user memory and have gained substantial traction. However, existing benchmarks primarily focus on whether agents can recall and apply user information, while overlooking whether such personalization is used appropriately. In fact, agents may overuse personal information, producing responses that feel forced, intrusive, or socially inappropriate to users. We refer to this issue as \emph{over-personalization}. In this work, we formalize over-personalization into three types: Irrelevance, Repetition, and Sycophancy, and introduce \textbf{OP-Bench} a benchmark of 1,700 verified instances constructed from long-horizon dialogue histories. Using \textbf{OP-Bench}, we evaluate multiple large language models and memory-augmentation methods, and find that over-personalization is widespread when memory is introduced. Further analysis reveals that agents tend to retrieve and over-attend to user memories even when unnecessary. To address this issue, we propose \textbf{Self-ReCheck}, a lightweight, model-agnostic memory filtering mechanism that mitigates over-personalization while preserving personalization performance. Our work takes an initial step toward more controllable and appropriate personalization in memory-augmented dialogue systems.
- Abstract(参考訳): メモリ拡張された会話エージェントは、長期のユーザメモリを使用してパーソナライズされた対話を可能にする。
しかし、既存のベンチマークは主に、そのようなパーソナライゼーションが適切に使用されるかどうかを見極めながら、エージェントがユーザー情報をリコールして適用できるかどうかに焦点を当てている。
実際、エージェントは個人情報を過度に利用し、強制的、侵入的、あるいは社会的に不適切であると感じた反応を生み出すかもしれない。
この問題を「emph{over-personalization}」と呼ぶ。
本研究では, オーバーパーソナライゼーションを, 関連性, 反復性, およびシコファンシーの3つのタイプに分類し, 長軸対話履歴から構築した1,700の検証済みインスタンスのベンチマークを紹介する。
また, 複数大言語モデルとメモリ拡張手法を評価し, メモリ導入時にオーバーパーソナライゼーションが広まることを見出した。
さらに分析すると、不要な場合でもエージェントがユーザーの記憶を検索し過剰に処理する傾向があることが分かる。
この問題に対処するために,パーソナライズ性能を保ちながら過度に個人化を緩和する軽量なモデルに依存しないメモリフィルタリング機構である \textbf{Self-ReCheck} を提案する。
我々の研究は、メモリ拡張対話システムにおいて、より制御可能で適切なパーソナライズに向けた最初の一歩を踏み出した。
関連論文リスト
- Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction [35.20324450282101]
エージェントのメモリ依存を明示的かつユーザ制御可能な次元としてモデル化できることを示す。
textbfSteerable textbfMemory Agent, textttSteeMを提案する。
論文 参考訳(メタデータ) (2026-01-08T16:54:30Z) - PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory [56.81126490418336]
パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
論文 参考訳(メタデータ) (2025-12-07T06:48:23Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - MemWeaver: A Hierarchical Memory from Textual Interactive Behaviors for Personalized Generation [12.075641773020152]
本稿では,ユーザのテキスト履歴全体を階層記憶に織り込み,パーソナライズされた生成を行うフレームワークを提案する。
MemWeaverは、時間情報と意味情報を統合した2つの補完的なメモリコンポーネントを構築している。
論文 参考訳(メタデータ) (2025-10-09T02:47:21Z) - Explicit v.s. Implicit Memory: Exploring Multi-hop Complex Reasoning Over Personalized Information [13.292751023556221]
大規模言語モデルに基づくエージェントでは、メモリはユーザの情報を保存して活用することでパーソナライズを達成する重要な能力として機能する。
本稿では、パーソナライズされた情報に対するマルチホップ推論において、異なるメモリ機構がどのように機能するかを検討するために、マルチホップパーソナライズされた推論タスクを提案する。
論文 参考訳(メタデータ) (2025-08-18T13:34:37Z) - MemoCRS: Memory-enhanced Sequential Conversational Recommender Systems with Large Language Models [51.65439315425421]
大規模言語モデルを用いたメモリ拡張型会話レコメンダシステムフレームワーク(MemoCRS)を提案する。
ユーザ固有のメモリは、パーソナライズされた関心事のために各ユーザに合わせて調整される。
共同知識と推論ガイドラインをカプセル化した一般的な記憶は、ユーザに共有知識を提供することができる。
論文 参考訳(メタデータ) (2024-07-06T04:57:25Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。