論文の概要: Styles + Persona-plug = Customized LLMs
- arxiv url: http://arxiv.org/abs/2601.06362v1
- Date: Sat, 10 Jan 2026 00:14:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.774062
- Title: Styles + Persona-plug = Customized LLMs
- Title(参考訳): Styles + Persona-plug = Customized LLMs
- Authors: Yutong Song, Jiang Wu, Shaofan Yuan, Chengze Shen, Jian Wang, Amir Rahmani, Nikil Dutt, Yu Wang,
- Abstract要約: 我々は、パーソナライズを分布残差として定式化し、PsPLUGを提案し、PsPLUGは、スタイル条件付き嗜好コントラストで訓練された軽量なソフトプロンプトプラグインである。
LaMPベンチマーク全体で、我々のフレームワークはペルソナアライメントを改善し、スタイリスティックな忠実さを維持し、検索ベースとソフトプロンプトベースラインを上回っている。
- 参考スコア(独自算出の注目度): 9.655863963736921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We discover a previously overlooked challenge in personalized text generation: personalization methods are increasingly applied under explicit style instructions, yet their behavior under such constraints remains poorly understood. To balance implicit personalization and explicit style, we formulate personalization as a distributional residual and propose PsPLUG, a lightweight soft-prompt plug-in trained with style-conditioned preference contrasts. Across LaMP benchmark, our framework improves persona alignment, maintains stylistic fidelity, and outperforms retrieval-based and soft-prompt baselines with minimal computation. These results show that residual modeling provides a simple and principled foundation for controllable, style-aware LLM personalization.
- Abstract(参考訳): パーソナライズ手法は明示的なスタイルの指示の下で適用されがちだが,そのような制約下での動作はいまだに理解されていない。
暗黙的パーソナライゼーションと明示的スタイルのバランスをとるために,パーソナライゼーションを分布残差として定式化し,PsPLUGを提案する。
LaMPベンチマーク全体で、我々のフレームワークはペルソナアライメントを改善し、スタイリスティックな忠実さを維持し、最小限の計算で検索ベースとソフトプロンプトベースラインを上回っている。
これらの結果は、残差モデリングが、制御可能でスタイル対応のLLMパーソナライズのための、シンプルで原則化された基礎を提供することを示している。
関連論文リスト
- Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - PAD: Personalized Alignment of LLMs at Decoding-Time [10.347782385286582]
本稿では,LLM出力を推論フェーズにおいて多様なパーソナライズされた嗜好と整合させる新しいフレームワークを提案する。
パーソナライズド・アライメント・アライメント・アライメント・アライメント・アット・デコーディング・タイム(PAD)フレームワークは、テキスト生成プロセスをパーソナライズされた好みから切り離す。
PADは、既存のトレーニングベースのアライメント手法を、多様な嗜好と整合するという点で上回るだけでなく、トレーニング中に見つからない嗜好に対する顕著な一般化性も示している。
論文 参考訳(メタデータ) (2024-10-05T08:00:55Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。