論文の概要: LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings
- arxiv url: http://arxiv.org/abs/2510.08338v1
- Date: Thu, 09 Oct 2025 15:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.162205
- Title: LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings
- Title(参考訳): LLMはイブトレーティングのセマンティック類似性除去を介してヒト買収インテントを再現する
- Authors: Benjamin F. Maier, Ulf Aslak, Luca Fiaschi, Nina Rismal, Kemble Fletcher, Christian C. Luhmann, Robbie Dow, Kli Pappas, Thomas V. Wiecki,
- Abstract要約: 大規模言語モデル(LLM)は、合成消費者をシミュレートする代替手段を提供するが、数値評価を直接要求すると非現実的な応答分布を生成する。
本稿では,LLMからテキスト応答を抽出し,これらをLikert分布にマッピングする意味的類似度評価(SSR)を提案する。
このフレームワークは、従来の調査メトリクスと解釈可能性を維持しながら、スケーラブルな消費者調査シミュレーションを可能にする。
- 参考スコア(独自算出の注目度): 0.6191452847168736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consumer research costs companies billions annually yet suffers from panel biases and limited scale. Large language models (LLMs) offer an alternative by simulating synthetic consumers, but produce unrealistic response distributions when asked directly for numerical ratings. We present semantic similarity rating (SSR), a method that elicits textual responses from LLMs and maps these to Likert distributions using embedding similarity to reference statements. Testing on an extensive dataset comprising 57 personal care product surveys conducted by a leading corporation in that market (9,300 human responses), SSR achieves 90% of human test-retest reliability while maintaining realistic response distributions (KS similarity > 0.85). Additionally, these synthetic respondents provide rich qualitative feedback explaining their ratings. This framework enables scalable consumer research simulations while preserving traditional survey metrics and interpretability.
- Abstract(参考訳): 消費者調査は毎年何十億ドルもの企業を犠牲にしているが、パネルバイアスと限られた規模に悩まされている。
大規模言語モデル(LLM)は、合成消費者をシミュレートする代替手段を提供するが、数値評価を直接要求すると非現実的な応答分布を生成する。
本稿では,LLMからテキスト応答を抽出し,参照文への埋め込み類似性を用いたLikert分布にマッピングする意味的類似度評価(SSR)を提案する。
先進企業による57件の個人ケア製品調査(9,300件の人的反応)からなる広範囲なデータセットを用いて、SSRは、現実的な応答分布を維持しながら、人間のテスト-テスト信頼性の90%を達成している(KS類似度 > 0.85)。
さらに、これらの総合的な回答者は、彼らの評価を説明する豊かな質的なフィードバックを提供する。
このフレームワークは、従来の調査メトリクスと解釈可能性を維持しながら、スケーラブルな消費者調査シミュレーションを可能にする。
関連論文リスト
- Emulating Public Opinion: A Proof-of-Concept of AI-Generated Synthetic Survey Responses for the Chilean Case [0.0]
大規模言語モデル (LLMs) は、調査研究における方法論的および応用的な革新のための有望な道を提供する。
チリの世論確率論的調査から, LLM生成型人工サーベイ応答の信頼性を評価する。
論文 参考訳(メタデータ) (2025-09-11T21:43:59Z) - Beyond "Not Novel Enough": Enriching Scholarly Critique with LLM-Assisted Feedback [81.0031690510116]
本稿では,3段階を通して専門家レビューアの動作をモデル化する,自動ノベルティ評価のための構造化アプローチを提案する。
本手法は,人文のノベルティレビューを大規模に分析した結果から得られたものである。
182 ICLR 2025 の提出で評価されたこの手法は、人間の推論と86.5%の一致と、新規性の結論に関する75.3%の合意を達成している。
論文 参考訳(メタデータ) (2025-08-14T16:18:37Z) - Prompt Perturbations Reveal Human-Like Biases in LLM Survey Responses [1.7170969275523118]
大規模言語モデル (LLMs) は、社会科学調査において、人間の被験者のプロキシとしてますます使われている。
本稿では,標準調査文脈におけるLCMの応答ロバスト性について検討する。
論文 参考訳(メタデータ) (2025-07-09T18:01:50Z) - Uncertainty Quantification for LLM-Based Survey Simulations [9.303339416902995]
本研究では,大規模言語モデル(LLM)を用いて質問に対する人間の反応をシミュレートする。
提案手法は,不完全なLLMシミュレーション応答を集団パラメータの信頼セットに変換する。
重要な革新は、シミュレーションされたレスポンスの最適な数を決定することである。
論文 参考訳(メタデータ) (2025-02-25T02:07:29Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。