論文の概要: PrefPalette: Personalized Preference Modeling with Latent Attributes
- arxiv url: http://arxiv.org/abs/2507.13541v1
- Date: Thu, 17 Jul 2025 21:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.135561
- Title: PrefPalette: Personalized Preference Modeling with Latent Attributes
- Title(参考訳): PrefPalette: 潜在属性を用いたパーソナライズされた優先度モデリング
- Authors: Shuyue Stella Li, Melanie Sclar, Hunter Lang, Ansong Ni, Jacqueline He, Puxin Xu, Andrew Cohen, Chan Young Park, Yulia Tsvetkov, Asli Celikyilmaz,
- Abstract要約: PrefPaletteは、好みを属性の次元に分解するフレームワークである。
好みの予測を、異なる社会的価値に合わせる。
PrefPaletteは平均予測精度でGPT-4oを46.6%上回っている。
- 参考スコア(独自算出の注目度): 59.58648056175468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalizing AI systems requires understanding not just what users prefer, but the reasons that underlie those preferences - yet current preference models typically treat human judgment as a black box. We introduce PrefPalette, a framework that decomposes preferences into attribute dimensions and tailors its preference prediction to distinct social community values in a human-interpretable manner. PrefPalette operationalizes a cognitive science principle known as multi-attribute decision making in two ways: (1) a scalable counterfactual attribute synthesis step that involves generating synthetic training data to isolate for individual attribute effects (e.g., formality, humor, cultural values), and (2) attention-based preference modeling that learns how different social communities dynamically weight these attributes. This approach moves beyond aggregate preference modeling to capture the diverse evaluation frameworks that drive human judgment. When evaluated on 45 social communities from the online platform Reddit, PrefPalette outperforms GPT-4o by 46.6% in average prediction accuracy. Beyond raw predictive improvements, PrefPalette also shed light on intuitive, community-specific profiles: scholarly communities prioritize verbosity and stimulation, conflict-oriented communities value sarcasm and directness, and support-based communities emphasize empathy. By modeling the attribute-mediated structure of human judgment, PrefPalette delivers both superior preference modeling and transparent, interpretable insights, and serves as a first step toward more trustworthy, value-aware personalized applications.
- Abstract(参考訳): AIシステムのパーソナライズには、ユーザが何を好むかだけでなく、その好みを過小評価する理由も理解する必要がある。
PrefPaletteは属性次元に選好を分解し、その選好予測を人間の解釈可能な方法で異なる社会的コミュニティ価値に調整するフレームワークである。
PrefPaletteは、(1)個々の属性効果(例えば、形式性、ユーモア、文化的価値)を分離するために合成トレーニングデータを生成するスケーラブルな対物属性合成ステップと、(2)異なる社会的コミュニティがこれらの属性を動的に重み付けする方法を学ぶ注意に基づく選好モデリングの2つの方法で、マルチ属性決定として知られる認知科学の原則を運用する。
このアプローチは、人間の判断を駆動する多様な評価フレームワークを捉えるために、集合的嗜好モデリングを超えています。
オンラインプラットフォームRedditから45のソーシャルコミュニティで評価されると、PrefPaletteは平均予測精度でGPT-4oを46.6%上回っている。
PrefPalette氏はまた、直感的でコミュニティ固有のプロファイルにも光を当てた: 学者コミュニティは冗長性と刺激を優先し、紛争指向のコミュニティは皮肉と直感を重んじ、サポートベースのコミュニティは共感を強調する。
属性による人間の判断の構造をモデル化することによって、PrefPaletteは優れた嗜好モデリングと透過的で解釈可能な洞察の両方を提供し、より信頼性が高く、価値に配慮したパーソナライズされたアプリケーションへの第一歩として機能する。
関連論文リスト
- NextQuill: Causal Preference Modeling for Enhancing LLM Personalization [82.15961484963256]
因果選好モデルに基づく新しいパーソナライズフレームワークであるNextQuillを紹介する。
この洞察に基づいて、NextQuillは2つの補完的なアライメント戦略を導入した。
複数のパーソナライズベンチマークの実験により、NextQuillはパーソナライズ品質を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-03T02:08:55Z) - Persona-judge: Personalized Alignment of Large Language Models via Token-level Self-judgment [21.677859755364334]
ペルソナ・ジャッジ(Persona-judge)は、トレーニング不要なパーソナライズされたアライメントと、目に見えない好みのアライメントを可能にする、新しい差別的パラダイムである。
Persona-judgeは、パーソナライズされたアライメントに対して、スケーラブルで、計算的に効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-17T05:50:13Z) - Learning a Canonical Basis of Human Preferences from Binary Ratings [28.975782992900065]
本稿では、そのようなデータセットに符号化された嗜好を理解し、共通の人間の嗜好を特定することに焦点を移す。
21の選好カテゴリーの小さなサブセットは、個人間での選好の変化の89%を捉えていることがわかった。
この小さな嗜好のセットは、人間の嗜好の標準的基礎と類似しており、心理学や顔認識の研究における人間の変動を特徴づける確立された発見と類似している。
論文 参考訳(メタデータ) (2025-03-31T14:35:48Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - LRHP: Learning Representations for Human Preferences via Preference Pairs [45.056558199304554]
本研究では、よりリッチで構造化された人間の嗜好表現を構築することを目的とした嗜好表現学習タスクを提案する。
選好データ選択と選好マージン予測という2つの下流タスクにおける選好表現の有用性を検証する。
論文 参考訳(メタデータ) (2024-10-06T14:48:28Z) - Beyond Bradley-Terry Models: A General Preference Model for Language Model Alignment [51.14207112118503]
我々は、優先順位を効率的に捉えるために、応答を潜在空間に埋め込むアプローチである選好埋め込みを導入する。
また、人間からのフィードバックから報酬に基づく強化学習を一般化する嗜好スコアに基づく一般選好最適化(GPO)を提案する。
提案手法は,基礎モデルの微妙な人的価値との整合性を高めることができる。
論文 参考訳(メタデータ) (2024-10-03T04:22:55Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - AlignDiff: Aligning Diverse Human Preferences via Behavior-Customisable
Diffusion Model [69.12623428463573]
AlignDiffは、人間の好みを定量化し、抽象性をカバーし、拡散計画をガイドする新しいフレームワークである。
ユーザがカスタマイズした動作と正確に一致し、効率的に切り替えることができます。
選好マッチング,スイッチング,カバーにおいて,他のベースラインに比べて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T13:53:08Z) - Models of human preference for learning reward functions [80.39289349661364]
そこで我々は,一対の軌跡区間間の人為的嗜好から報酬関数を学習する。
この仮定に欠陥があることに気付き、各セグメントの後悔が示すように、人間の嗜好をモデル化することを提案する。
提案した後悔の選好モデルは、実際の人間の選好をより良く予測し、また、これらの選好から報酬関数を学習し、より人道的な政策へと導く。
論文 参考訳(メタデータ) (2022-06-05T17:58:02Z) - Preference Enhanced Social Influence Modeling for Network-Aware Cascade
Prediction [59.221668173521884]
本稿では,ユーザの嗜好モデルを強化することで,カスケードサイズ予測を促進する新しいフレームワークを提案する。
エンド・ツー・エンドの手法により,ユーザの情報拡散プロセスがより適応的で正確になる。
論文 参考訳(メタデータ) (2022-04-18T09:25:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。