論文の概要: When Personalization Misleads: Understanding and Mitigating Hallucinations in Personalized LLMs
- arxiv url: http://arxiv.org/abs/2601.11000v1
- Date: Fri, 16 Jan 2026 05:20:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.361992
- Title: When Personalization Misleads: Understanding and Mitigating Hallucinations in Personalized LLMs
- Title(参考訳): パーソナライズ:パーソナライズされたLLMにおける幻覚の理解と緩和
- Authors: Zhongxiang Sun, Yi Zhan, Chenglei Shen, Weijie Yu, Xiao Zhang, Ming He, Jun Xu,
- Abstract要約: パーソナライズされた大規模言語モデル(LLM)が現実的なクエリに直面すると、そのモデルは客観的な真理ではなく、ユーザの過去の履歴に沿った回答を生成する。
個人化による事実歪みを緩和する軽量な推論時間アプローチであるFPPSを提案する。
- 参考スコア(独自算出の注目度): 13.695058536403108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized large language models (LLMs) adapt model behavior to individual users to enhance user satisfaction, yet personalization can inadvertently distort factual reasoning. We show that when personalized LLMs face factual queries, there exists a phenomenon where the model generates answers aligned with a user's prior history rather than the objective truth, resulting in personalization-induced hallucinations that degrade factual reliability and may propagate incorrect beliefs, due to representational entanglement between personalization and factual representations. To address this issue, we propose Factuality-Preserving Personalized Steering (FPPS), a lightweight inference-time approach that mitigates personalization-induced factual distortions while preserving personalized behavior. We further introduce PFQABench, the first benchmark designed to jointly evaluate factual and personalized question answering under personalization. Experiments across multiple LLM backbones and personalization methods show that FPPS substantially improves factual accuracy while maintaining personalized performance.
- Abstract(参考訳): パーソナライズされた大規模言語モデル(LLM)は、ユーザ満足度を高めるために個々のユーザに対してモデル行動を適用するが、パーソナライゼーションは事実推論を意図せず歪ませる可能性がある。
パーソナライズされたLCMが現実的なクエリに直面すると、そのモデルが客観的な真実ではなく、ユーザのこれまでの歴史に沿った回答を生成する現象が存在し、それによって個人化による幻覚が、事実の信頼性を低下させ、個人化と事実表現の間の表現的絡み合いにより、誤った信念を広める可能性があることを示す。
この問題に対処するために、パーソナライズによって引き起こされる事実歪みを軽減し、パーソナライズされた行動を保存する軽量な推論時間アプローチであるFPPSを提案する。
さらに、PFQABenchは、個人化下での事実とパーソナライズされた質問応答を共同で評価するための最初のベンチマークである。
複数のLDMバックボーンとパーソナライズ手法による実験により、FPPSはパーソナライズされたパフォーマンスを維持しながら、事実の精度を大幅に向上することが示された。
関連論文リスト
- PersonaDual: Balancing Personalization and Objectivity via Adaptive Reasoning [57.10486355722133]
PersonaDualは、汎用的な客観的推論とパーソナライズされた推論の両方を単一のモデルでサポートする。
客観的およびパーソナライズされたベンチマークの実験は、PersonaDualが干渉を減らしながらパーソナライゼーションの利点を保っていることを示している。
論文 参考訳(メタデータ) (2026-01-13T16:02:35Z) - Towards Effective Model Editing for LLM Personalization [36.236438676571034]
我々はパーソナライズをモデル編集タスクとして概念化し、パーソナライズ編集を導入する。
このフレームワークは、クラスタ化された選好表現によってガイドされる局所的な編集を適用する。
微調整よりも高い編集精度と計算効率を実現する。
論文 参考訳(メタデータ) (2025-12-15T18:58:15Z) - Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - NextQuill: Causal Preference Modeling for Enhancing LLM Personalization [82.15961484963256]
因果選好モデルに基づく新しいパーソナライズフレームワークであるNextQuillを紹介する。
この洞察に基づいて、NextQuillは2つの補完的なアライメント戦略を導入した。
複数のパーソナライズベンチマークの実験により、NextQuillはパーソナライズ品質を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-03T02:08:55Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - Few-shot Personalization of LLMs with Mis-aligned Responses [40.0349773257245]
本稿では,大規模言語モデル(LLM)のパーソナライズのための新しいアプローチを提案する。
私たちのキーとなるアイデアは、LSMを用いてプロンプトを段階的に改善することで、各ユーザに対してパーソナライズされたプロンプトのセットを学ぶことです。
即時改善の反復過程において,LLMによる不整合応答の文脈を取り入れた。
論文 参考訳(メタデータ) (2024-06-26T18:29:12Z) - Knowledge Graph Tuning: Real-time Large Language Model Personalization based on Human Feedback [5.778012023739487]
大規模言語モデル(LLM)をパーソナライズするための知識グラフチューニング(KGT)を提案する。
KGTは、ユーザのクエリとフィードバックからパーソナライズされた事実知識を抽出し、LLMパラメータを変更することなくKGを最適化する。
GPT-2、Llama2、Llama3を含む最先端のLLMによる実験では、KGTはレイテンシとGPUメモリコストを削減しつつ、パーソナライズ性能を著しく改善している。
論文 参考訳(メタデータ) (2024-05-30T04:57:03Z) - Personalized Large Language Models [1.0881867638866944]
本稿では,大規模言語モデル(LLM)のパーソナライズ手法について検討する。
その結果、パーソナライズされた微調整は、非パーソナライズされたモデルと比較してモデル推論を改善することが示された。
感情認識とヘイトスピーチ検出のためのデータセットの実験は、パーソナライズされた方法で一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-02-14T15:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。