論文の概要: Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs
- arxiv url: http://arxiv.org/abs/2602.07181v1
- Date: Fri, 06 Feb 2026 20:37:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.487871
- Title: Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs
- Title(参考訳): LLMは、あなたの嗜好に影響を与える特性を識別できるか? : LLMにおけるパーソナリティ駆動選好アライメントの評価
- Authors: Tianyu Zhao, Siqi Li, Yasser Shoukry, Salma Elmalaki,
- Abstract要約: 選好文の背景にある「ラテント」信号としてパーソナリティを研究する。
パーソナライズされた嗜好の条件付けは、パーソナライズされた質問応答を大幅に改善する。
本稿では,LLMモデルを用いて人格に適合した好みを自動検索し,回答生成時に組み込むフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.04942779683801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User preferences are increasingly used to personalize Large Language Model (LLM) responses, yet how to reliably leverage preference signals for answer generation remains under-explored. In practice, preferences can be noisy, incomplete, or even misleading, which can degrade answer quality when applied naively. Motivated by the observation that stable personality traits shape everyday preferences, we study personality as a principled ''latent'' signal behind preference statements. Through extensive experiments, we find that conditioning on personality-aligned preferences substantially improves personalized question answering: selecting preferences consistent with a user's inferred personality increases answer-choice accuracy from 29.25% to 76%, compared to using randomly selected preferences. Based on these findings, we introduce PACIFIC (Preference Alignment Choices Inference for Five-factor Identity Characterization), a personality-labeled preference dataset containing 1200 preference statements spanning diverse domains (e.g., travel, movies, education), annotated with Big-Five (OCEAN) trait directions. Finally, we propose a framework that enables an LLM model to automatically retrieve personality-aligned preferences and incorporate them during answer generation.
- Abstract(参考訳): ユーザの嗜好は大規模言語モデル(LLM)の応答をパーソナライズするためにますます使われていますが、回答生成のための選好信号をどのように確実に活用するかはまだ未定です。
実際には、好みはうるさい、不完全、あるいは誤解を招くこともある。
安定な性格特性が日常的な嗜好を形作っているという観察に感銘を受け,嗜好文の背景にある「ラテント」信号として個性について検討した。
ユーザの推論された性格と一致した嗜好を選択すると、ランダムに選択された選好に比べて、回答選択精度が29.25%から76%に向上する。
これらの結果をもとに,多彩な領域(例えば,旅行,映画,教育など)にまたがる1200の嗜好文を含む人格ラベル付き嗜好データセットであるPACIFIC(Preference Alignment Choices Inference for Five-factor Identity Characterization)を紹介した。
最後に,LLMモデルを用いて,回答生成時にパーソナライズされた好みを自動的に検索し,それらを組み込むフレームワークを提案する。
関連論文リスト
- Is Active Persona Inference Necessary for Aligning Small Models to Personal Preferences? [16.12440288407791]
人気のトレンドは、現在のユーザの会話にプレフィックスを追加して、好みの配布を操ることである。
ほとんどのメソッドは、前の例の選好ペアで個人的な選好を受動的にモデル化する。
モデルが嗜好記述を積極的に推測する利点があるかどうかを問う。
次に、微調整された1-8Bサイズのモデルが、個人の好みを推測し調整する上で、いかに効果的かをテストする。
論文 参考訳(メタデータ) (2025-05-19T15:39:48Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - Geometric-Averaged Preference Optimization for Soft Preference Labels [78.2746007085333]
LLMを人間の嗜好と整合させる多くのアルゴリズムは、人間の嗜好は二進的かつ決定論的であると仮定する。
本研究では,分散ソフトな選好ラベルを導入し,損失関数におけるLLM出力確率の重み付き幾何平均を用いて直接選好最適化(DPO)を改善する。
論文 参考訳(メタデータ) (2024-09-10T17:54:28Z) - Personality Alignment of Large Language Models [30.710131188931317]
パーソナリティ・アライメント(Personality Alignment)は、大きな言語モデルと個々のユーザの好みを合わせることを目的としている。
このデータセットには、複数のパーソナリティアセスメントを含む、32万人以上の実際の被験者のデータが含まれている。
本研究では,個人の行動選好を効率的に整合させるために,アクティベーション介入最適化手法を開発した。
私たちの仕事は、未来のAIシステムが真にパーソナライズされた方法で意思決定と推論を行うための道を開くものです。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。