論文の概要: Would a Large Language Model Pay Extra for a View? Inferring Willingness to Pay from Subjective Choices
- arxiv url: http://arxiv.org/abs/2602.09802v1
- Date: Tue, 10 Feb 2026 14:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.569017
- Title: Would a Large Language Model Pay Extra for a View? Inferring Willingness to Pay from Subjective Choices
- Title(参考訳): 大規模言語モデルが視野に余分に支払うか : 主観的選択から支払う意志を推定する
- Authors: Manon Reusens, Sofie Goethals, Toon Calders, David Martens,
- Abstract要約: 大規模言語モデル(LLM)は、旅行支援や購入支援といったアプリケーションにますます導入されている。
我々は、選択ジレンマを持つモデルを提示し、それらの応答を解析することにより、旅行支援文脈におけるLCM意思決定について検討する。
提案手法では,より大きなLLMに対して有意なWTP値が導出可能である一方で,属性レベルでの系統的偏差も示す。
- 参考スコア(独自算出の注目度): 1.8759305308855918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) are increasingly deployed in applications such as travel assistance and purchasing support, they are often required to make subjective choices on behalf of users in settings where no objectively correct answer exists. We study LLM decision-making in a travel-assistant context by presenting models with choice dilemmas and analyzing their responses using multinomial logit models to derive implied willingness to pay (WTP) estimates. These WTP values are subsequently compared to human benchmark values from the economics literature. In addition to a baseline setting, we examine how model behavior changes under more realistic conditions, including the provision of information about users' past choices and persona-based prompting. Our results show that while meaningful WTP values can be derived for larger LLMs, they also display systematic deviations at the attribute level. Additionally, they tend to overestimate human WTP overall, particularly when expensive options or business-oriented personas are introduced. Conditioning models on prior preferences for cheaper options yields valuations that are closer to human benchmarks. Overall, our findings highlight both the potential and the limitations of using LLMs for subjective decision support and underscore the importance of careful model selection, prompt design, and user representation when deploying such systems in practice.
- Abstract(参考訳): 大規模言語モデル(LLM)は、旅行支援や購入支援などのアプリケーションにますます導入されているため、客観的に正しい答えが存在しない環境では、ユーザに代わって主観的な選択をする必要があることが多い。
我々は、選択ジレンマモデルを提示し、多項ロジットモデルを用いて応答を分析して、旅行支援文脈におけるLCM意思決定について検討し、支払い意欲(WTP)の推定を導出する。
これらのWTP値はその後、経済学文献のヒトのベンチマーク値と比較される。
ベースライン設定に加えて,ユーザの過去の選択情報の提供やペルソナによるプロンプトなど,より現実的な条件下でモデル行動がどのように変化するかを検討する。
以上の結果から,より大きなLLMに対して有意なWTP値が導出可能である一方で,属性レベルでの系統的偏差も示している。
さらに、コストのかかる選択肢やビジネス指向のペルソナが導入された場合、全体として人間のWTPを過大評価する傾向があります。
より安価なオプションを優先する条件付けモデルでは、人間のベンチマークに近い評価が得られます。
本研究は,LLMを主観的意思決定支援に活用する可能性と限界を両立させるとともに,モデル選択や設計の迅速化,ユーザ表現の重要さを浮き彫りにするものである。
関連論文リスト
- User-Assistant Bias in LLMs [11.825607435336776]
大規模言語モデル(LLM)は、チャット履歴における自身の情報やユーザの情報への依存に偏りがあり、マルチターン会話において過度に頑固あるいは同意的な振る舞いをもたらす。
我々は,フロンティアLLMにおけるユーザ・アシスタントバイアスをベンチマークし,理解し,操作するために,8kのマルチターン会話データセットであるtextbfUserAssist$を導入している。
論文 参考訳(メタデータ) (2025-08-16T20:33:09Z) - User-centric Subjective Leaderboard by Customizable Reward Modeling [34.40455169451943]
ユーザ中心型主観的リーダーシップ(USL)について紹介する。
さまざまな現実世界のシナリオにまたがって、大規模言語モデル(LLM)の好み駆動の動的ランキングを提供する。
我々の研究は、10万件以上の主観的クエリを含む、実際の人間の嗜好データの徹底的な調査に基づいている。
論文 参考訳(メタデータ) (2025-08-13T03:39:04Z) - Revisiting LLM Value Probing Strategies: Are They Robust and Expressive? [81.49470136653665]
広範に利用されている3つの探索戦略における値表現の頑健さと表現性を評価する。
人口統計学的文脈は自由テキスト生成にはほとんど影響を与えず、モデルの値は値に基づく行動の好みと弱い相関しか示さない。
論文 参考訳(メタデータ) (2025-07-17T18:56:41Z) - Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models [45.41676783204022]
大規模言語モデル(LLM)におけるバイアスの様々なプロキシ尺度について検討する。
MMLU (Multi-subject benchmark) を用いた人格評価モデルでは, スコアの無作為かつ大半がランダムな差が生じることがわかった。
LLMアシスタントメモリとパーソナライゼーションの最近の傾向により、これらの問題は異なる角度から開かれている。
論文 参考訳(メタデータ) (2025-06-12T08:47:40Z) - IPO: Your Language Model is Secretly a Preference Classifier [1.8921784053120494]
人からのフィードバックから強化学習(RLHF)が,大規模言語モデルと人間の嗜好を整合させる主要な手法として登場した。
本稿では、生成言語モデルを選好分類器として活用する代替手法として、Implicit Preference Optimization (IPO)を提案する。
この結果から、IPOを通じてトレーニングされたモデルは、最先端の報酬モデルを使って好みを得られるモデルに匹敵するパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2025-02-22T10:59:11Z) - Disentangling Length Bias In Preference Learning Via Response-Conditioned Modeling [87.17041933863041]
RLHF(Reinforcement Learning from Human Feedback)は,大規模言語モデル(LLM)の整合化に成功している。
我々は、長さバイアス軽減と長さ指示に従うモデルの性能を高めるために、$textbfR$esponse-$textbfc$onditioned $textbfB$radley-$textbfT$erry (Rc-BT)モデルを導入する。
また、報酬モデルと直接ポリシー最適化のためにRc-BTモデルを利用するRc-RMおよびRc-DPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-02T14:50:25Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Eliciting Personality Traits in Large Language Models [0.0]
大規模言語モデル(LLM)は採用の文脈において、候補者と雇用主の両方が利用している。
本研究は,異なる入力プロンプトに基づいて,それらの出力変動を調べることによって,そのようなモデルをよりよく理解することを目的とする。
論文 参考訳(メタデータ) (2024-02-13T10:09:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。