論文の概要: WikiPersonas: What Can We Learn From Personalized Alignment to Famous People?
- arxiv url: http://arxiv.org/abs/2505.13257v1
- Date: Mon, 19 May 2025 15:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.70559
- Title: WikiPersonas: What Can We Learn From Personalized Alignment to Famous People?
- Title(参考訳): WikiPersonas: パーソナライズされたアライメントから有名人まで、何が学べる?
- Authors: Zilu Tang, Afra Feyza Akyürek, Ekin Akyürek, Derry Wijaya,
- Abstract要約: WikiPersona(ウィキペソナ)について紹介する。
異なるパーソナライズ手法の評価を行い、テキスト推論された個人選好をプレフィックスとして用いることで、効果的なパーソナライズが可能になることを発見した。
- 参考スコア(独自算出の注目度): 14.801237597577169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preference alignment has become a standard pipeline in finetuning models to follow \emph{generic} human preferences. Majority of work seeks to optimize model to produce responses that would be preferable \emph{on average}, simplifying the diverse and often \emph{contradicting} space of human preferences. While research has increasingly focused on personalized alignment: adapting models to individual user preferences, there is a lack of personalized preference dataset which focus on nuanced individual-level preferences. To address this, we introduce WikiPersona: the first fine-grained personalization using well-documented, famous individuals. Our dataset challenges models to align with these personas through an interpretable process: generating verifiable textual descriptions of a persona's background and preferences in addition to alignment. We systematically evaluate different personalization approaches and find that as few-shot prompting with preferences and fine-tuning fail to simultaneously ensure effectiveness and efficiency, using \textit{inferred personal preferences} as prefixes enables effective personalization, especially in topics where preferences clash while leading to more equitable generalization across unseen personas.
- Abstract(参考訳): 嗜好アライメントは、人間の嗜好に従うための微調整モデルの標準パイプラインとなっている。
作業の多数派は、人間の嗜好の多様かつしばしば \emph{contradicting} 空間を単純化し、より好ましい 'emph{on average} の応答を生成するためにモデルを最適化しようと試みている。
研究は、パーソナライズされたアライメント(パーソナライズされたアライメント):個々のユーザの好みにモデルを適応させること)に重点を置いているが、個々のレベルの嗜好にフォーカスするパーソナライズされた嗜好データセットが欠如している。
ウィキペソナ(WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersona, WikiPersonaの略。
我々のデータセットは、これらのペルソナを解釈可能なプロセスで整合させるモデルに挑戦する。
個人化アプローチを体系的に評価し,選好と微調整が同時に有効性や効率性を確保するのに失敗する事例が少なからずあるのに対して,<textit{inferred Personal preferences>を接頭辞として使用すれば,特に選好が衝突するトピックにおいて,選好が不明瞭な人格をまたいでより公平な一般化を導いながら,効果的なパーソナライズを可能にする。
関連論文リスト
- Persona-judge: Personalized Alignment of Large Language Models via Token-level Self-judgment [21.677859755364334]
ペルソナ・ジャッジ(Persona-judge)は、トレーニング不要なパーソナライズされたアライメントと、目に見えない好みのアライメントを可能にする、新しい差別的パラダイムである。
Persona-judgeは、パーソナライズされたアライメントに対して、スケーラブルで、計算的に効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-17T05:50:13Z) - From 1,000,000 Users to Every User: Scaling Up Personalized Preference for User-level Alignment [41.96246165999026]
大規模言語モデル(LLM)は、伝統的にワンサイズフィットのアプローチによって整列されてきた。
本稿では,LLMのスケーラブルなパーソナライズのための包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T17:41:46Z) - Personalized Preference Fine-tuning of Diffusion Models [75.22218338096316]
拡散モデルとパーソナライズされた嗜好を整合させるマルチリワード最適化の目的であるPDを導入する。
PPDでは、拡散モデルがユーザーの個人の好みを数秒で学習する。
提案手法は,Stable Cascadeに対して平均76%の勝利率を達成し,特定のユーザの好みをより正確に反映した画像を生成する。
論文 参考訳(メタデータ) (2025-01-11T22:38:41Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - DegustaBot: Zero-Shot Visual Preference Estimation for Personalized Multi-Object Rearrangement [53.86523017756224]
本稿では,視覚的嗜好学習のためのアルゴリズムであるDegustaBotを提案する。
我々は、シミュレーション表設定タスクにおいて、自然主義的個人的嗜好の大規模なデータセットを収集する。
私たちのモデルの予測の50%は、少なくとも20%の人々に受け入れられる可能性が高いことが分かりました。
論文 参考訳(メタデータ) (2024-07-11T21:28:02Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - Personalized Soups: Personalized Large Language Model Alignment via
Post-hoc Parameter Merging [148.77027765872006]
パーソナライズされたヒューマンフィードバック(RLPHF)問題からの強化学習について検討する。
LLMは、多目的強化学習(MORL)問題としてアライメントをモデル化することで、複数の好みに整列する。
我々は、好みを複数の次元に分解することで、パーソナライズされたアライメントを実現することができることを示す。
論文 参考訳(メタデータ) (2023-10-17T20:22:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。