論文の概要: Towards Effective Model Editing for LLM Personalization
- arxiv url: http://arxiv.org/abs/2512.13676v1
- Date: Mon, 15 Dec 2025 18:58:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.826889
- Title: Towards Effective Model Editing for LLM Personalization
- Title(参考訳): LLMパーソナライズのための効率的なモデル編集に向けて
- Authors: Baixiang Huang, Limeng Cui, Jiapeng Liu, Haoran Wang, Jiawei Xu, Zhuiyue Tan, Yutong Chen, Chen Luo, Yi Liu, Kai Shu,
- Abstract要約: 我々はパーソナライズをモデル編集タスクとして概念化し、パーソナライズ編集を導入する。
このフレームワークは、クラスタ化された選好表現によってガイドされる局所的な編集を適用する。
微調整よりも高い編集精度と計算効率を実現する。
- 参考スコア(独自算出の注目度): 36.236438676571034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalization is becoming indispensable for LLMs to align with individual user preferences and needs. Yet current approaches are often computationally expensive, data-intensive, susceptible to catastrophic forgetting, and prone to performance degradation in multi-turn interactions or when handling implicit queries. To address these challenges, we conceptualize personalization as a model editing task and introduce Personalization Editing, a framework that applies localized edits guided by clustered preference representations. This design enables precise preference-aligned updates while preserving overall model capabilities. In addition, existing personalization benchmarks frequently rely on persona-based dialogs between LLMs rather than user-LLM interactions, or focus primarily on stylistic imitation while neglecting information-seeking tasks that require accurate recall of user-specific preferences. We introduce User Preference Question Answering (UPQA), a short-answer QA dataset constructed from in-situ user queries with varying levels of difficulty. Unlike prior benchmarks, UPQA directly evaluates a model's ability to recall and apply specific user preferences. Across experimental settings, Personalization Editing achieves higher editing accuracy and greater computational efficiency than fine-tuning, while outperforming prompting-based baselines in multi-turn conversations and implicit preference questions settings.
- Abstract(参考訳): LLMが個々のユーザの好みやニーズに合わせているためには、パーソナライズが不可欠になっている。
しかし、現在のアプローチは、しばしば計算コストが高く、データ集約的で、破滅的な忘れ込みの影響を受けやすく、マルチターンインタラクションや暗黙的なクエリの処理においてパフォーマンスが低下する傾向にある。
これらの課題に対処するために、パーソナライズをモデル編集タスクとして概念化し、クラスタ化された選好表現でガイドされた局所的な編集を適用するPersonalization Editingを導入する。
この設計により、モデル全体の機能を維持しながら、正確なリコメンデーション・アライメントの更新が可能になる。
さらに、既存のパーソナライズベンチマークは、ユーザとLLMのインタラクションではなく、LLM間のペルソナベースのダイアログに依存することが多い。
本稿では,様々な難易度を持つユーザクエリから構築した短解QAデータセットであるユーザ優先質問回答(UPQA)を紹介する。
以前のベンチマークとは異なり、UPQAはモデルをリコールし、特定のユーザの好みを適用する能力を直接評価する。
実験的な設定全体では、パーソナライズ編集は微調整よりも高い編集精度と計算効率を実現し、マルチターン会話や暗黙の選好質問設定においてプロンプトベースのベースラインよりも優れている。
関連論文リスト
- Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - HyPerAlign: Interpretable Personalized LLM Alignment via Hypothesis Generation [24.67727411391369]
HyPerAlignは、大規模言語モデルに対する解釈可能かつサンプル効率の仮説駆動パーソナライズアプローチである。
我々は2つの異なるパーソナライズタスク、すなわち著者帰属と熟考的アライメントについて実験を行った。
その結果、仮説駆動型パーソナライゼーションの方が好みに基づく微調整法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-29T18:01:46Z) - LoRe: Personalizing LLMs via Low-Rank Reward Modeling [47.12507639759984]
本稿では,低ランク嗜好モデルを利用してユーザ固有の報酬関数を効率的に学習し,一般化する新しいフレームワークを提案する。
提案手法を複数の選好データセット上で検証し、未確認ユーザに対して優れた一般化を示し、選好予測タスクの精度を改善した。
論文 参考訳(メタデータ) (2025-04-20T01:16:24Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - Bridging Personalization and Control in Scientific Personalized Search [53.7152408217116]
本研究では、パーソナライズされたランキングを積極的に制御できるパーソナライズされた検索モデルを提案する。
我々のモデルであるCtrlCEは、ユーザの過去のインタラクションから構築された編集可能なメモリを付加した、新しいクロスエンコーダモデルである。
論文 参考訳(メタデータ) (2024-11-05T03:55:25Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Aligning LLM Agents by Learning Latent Preference from User Edits [23.235995078727658]
本研究では,エージェントの出力に対するユーザ編集に基づいて,言語エージェントの対話的学習について検討する。
本稿では,履歴編集データに基づいてユーザの潜伏傾向を推定する学習フレームワーク PreLUDE を提案する。
本稿では,要約とメール作成という2つの対話型環境を導入し,GPT-4シミュレーションユーザを用いて評価を行う。
論文 参考訳(メタデータ) (2024-04-23T17:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。