論文の概要: Styles + Persona-plug = Customized LLMs
- arxiv url: http://arxiv.org/abs/2601.06362v1
- Date: Sat, 10 Jan 2026 00:14:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.774062
- Title: Styles + Persona-plug = Customized LLMs
- Title(参考訳): Styles + Persona-plug = Customized LLMs
- Authors: Yutong Song, Jiang Wu, Shaofan Yuan, Chengze Shen, Jian Wang, Amir Rahmani, Nikil Dutt, Yu Wang,
- Abstract要約: 我々は、パーソナライズを分布残差として定式化し、PsPLUGを提案し、PsPLUGは、スタイル条件付き嗜好コントラストで訓練された軽量なソフトプロンプトプラグインである。
LaMPベンチマーク全体で、我々のフレームワークはペルソナアライメントを改善し、スタイリスティックな忠実さを維持し、検索ベースとソフトプロンプトベースラインを上回っている。
- 参考スコア(独自算出の注目度): 9.655863963736921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We discover a previously overlooked challenge in personalized text generation: personalization methods are increasingly applied under explicit style instructions, yet their behavior under such constraints remains poorly understood. To balance implicit personalization and explicit style, we formulate personalization as a distributional residual and propose PsPLUG, a lightweight soft-prompt plug-in trained with style-conditioned preference contrasts. Across LaMP benchmark, our framework improves persona alignment, maintains stylistic fidelity, and outperforms retrieval-based and soft-prompt baselines with minimal computation. These results show that residual modeling provides a simple and principled foundation for controllable, style-aware LLM personalization.
- Abstract(参考訳): パーソナライズ手法は明示的なスタイルの指示の下で適用されがちだが,そのような制約下での動作はいまだに理解されていない。
暗黙的パーソナライゼーションと明示的スタイルのバランスをとるために,パーソナライゼーションを分布残差として定式化し,PsPLUGを提案する。
LaMPベンチマーク全体で、我々のフレームワークはペルソナアライメントを改善し、スタイリスティックな忠実さを維持し、最小限の計算で検索ベースとソフトプロンプトベースラインを上回っている。
これらの結果は、残差モデリングが、制御可能でスタイル対応のLLMパーソナライズのための、シンプルで原則化された基礎を提供することを示している。
関連論文リスト
- Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - One Adapts to Any: Meta Reward Modeling for Personalized LLM Alignment [55.86333374784959]
これらの制約に対処するには、データの適合からユーザの好みを学習し、嗜好適応のプロセスを学ぶためのパラダイムシフトが必要である、と我々は主張する。
メタ学習問題としてパーソナライズされた報酬モデルを変更するメタリワードモデリング(MRM)を提案する。
MRMはパーソナライズを強化し、ユーザの堅牢性を向上し、ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-01-26T17:55:52Z) - When Personalization Misleads: Understanding and Mitigating Hallucinations in Personalized LLMs [13.695058536403108]
パーソナライズされた大規模言語モデル(LLM)が現実的なクエリに直面すると、そのモデルは客観的な真理ではなく、ユーザの過去の履歴に沿った回答を生成する。
個人化による事実歪みを緩和する軽量な推論時間アプローチであるFPPSを提案する。
論文 参考訳(メタデータ) (2026-01-16T05:20:10Z) - Reflective Personalization Optimization: A Post-hoc Rewriting Framework for Black-Box Large Language Models [16.152962349146275]
本稿では、コンテンツ生成をアライメントから切り離してパーソナライズパラダイムを再定義するフレームワークであるリフレクティブパーソナライズ最適化(RPO)を提案する。
RPOは2つの異なる段階で動作する: まず、ベースモデルが高品質で汎用的な応答を生成し、その後、外部反射モジュールがこの出力を明示的に書き直してユーザの好みに合わせる。
LaMPベンチマークの総合的な実験により、RPOはパーソナライゼーションからコンテンツ生成を分離することで、最先端のベースラインを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-11-07T14:48:49Z) - Iterative Critique-Refine Framework for Enhancing LLM Personalization [67.77803308645511]
PerFineは、パーソナライズされたテキスト生成のための、統一的でトレーニング不要な批判修正フレームワークである。
各イテレーションにおいて、LLMジェネレータは、検索されたプロファイルに条件付きドラフトを生成し、同じプロファイルに条件付きである批評家のLLMは、トーン、語彙、文構造、話題性に関する構造化されたフィードバックを提供する。
Yelp、Goodreads、Amazonのデータセット全体で、PerFineはPGraphRAGに対するパーソナライゼーションを一貫して改善している。
論文 参考訳(メタデータ) (2025-10-28T14:36:22Z) - POPI: Personalizing LLMs via Optimized Natural Language Preference Inference [42.25870704040321]
POPIは、不均一なユーザ信号を簡潔な自然言語要約に変換するための選好推論モデルを導入する一般的なフレームワークである。
これらの要約は、パーソナライズされた応答を生成するために共有生成モデルを必要とする透明でコンパクトで、転送可能なパーソナライズ表現として機能する。
4つのパーソナライズベンチマークによる大規模な実験により、POPIはパーソナライズ精度を常に改善し、コンテキストオーバーヘッドを大きなマージンで低減することを示した。
論文 参考訳(メタデータ) (2025-10-17T23:07:57Z) - StyleAdaptedLM: Enhancing Instruction Following Models with Efficient Stylistic Transfer [4.077787659104315]
StyleAdaptedLMは、スタイリスティックな特徴を命令追従モデルに効率的に転送するフレームワークである。
LoRAアダプタは、まず様々な非構造化スタイリスティックコーパスを持つベースモデルで訓練され、その後、個別の命令追従モデルとマージされる。
論文 参考訳(メタデータ) (2025-07-24T10:57:32Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - Tuning-Free Personalized Alignment via Trial-Error-Explain In-Context Learning [74.56097953187994]
本稿では,テキスト生成タスクのための言語モデルをパーソナライズするチューニング不要な手法であるTrial-Error-Explain In-Context Learning(TICL)を提案する。
TICLは、試行錯誤説明プロセスを通じて、文脈内学習プロンプトを反復的に拡張し、モデル生成陰性サンプルと説明を追加する。
TICLは従来の最先端技術に対して最大91.5%を達成し、パーソナライズされたアライメントタスクのための競争的なチューニング不要のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-13T05:20:21Z) - PAD: Personalized Alignment of LLMs at Decoding-Time [10.347782385286582]
本稿では,LLM出力を推論フェーズにおいて多様なパーソナライズされた嗜好と整合させる新しいフレームワークを提案する。
パーソナライズド・アライメント・アライメント・アライメント・アライメント・アット・デコーディング・タイム(PAD)フレームワークは、テキスト生成プロセスをパーソナライズされた好みから切り離す。
PADは、既存のトレーニングベースのアライメント手法を、多様な嗜好と整合するという点で上回るだけでなく、トレーニング中に見つからない嗜好に対する顕著な一般化性も示している。
論文 参考訳(メタデータ) (2024-10-05T08:00:55Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。