論文の概要: LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings
- arxiv url: http://arxiv.org/abs/2510.08338v2
- Date: Mon, 13 Oct 2025 15:22:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 15:48:09.829397
- Title: LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings
- Title(参考訳): LLMはイブトレーティングのセマンティック類似性除去を介してヒト買収インテントを再現する
- Authors: Benjamin F. Maier, Ulf Aslak, Luca Fiaschi, Nina Rismal, Kemble Fletcher, Christian C. Luhmann, Robbie Dow, Kli Pappas, Thomas V. Wiecki,
- Abstract要約: 大規模言語モデル(LLM)は、合成消費者をシミュレートする代替手段を提供するが、数値評価を直接要求すると非現実的な応答分布を生成する。
本稿では,LLMからテキスト応答を抽出し,これらをLikert分布にマッピングする意味的類似度評価(SSR)を提案する。
このフレームワークは、従来の調査メトリクスと解釈可能性を維持しながら、スケーラブルな消費者調査シミュレーションを可能にする。
- 参考スコア(独自算出の注目度): 0.6191452847168736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consumer research costs companies billions annually yet suffers from panel biases and limited scale. Large language models (LLMs) offer an alternative by simulating synthetic consumers, but produce unrealistic response distributions when asked directly for numerical ratings. We present semantic similarity rating (SSR), a method that elicits textual responses from LLMs and maps these to Likert distributions using embedding similarity to reference statements. Testing on an extensive dataset comprising 57 personal care product surveys conducted by a leading corporation in that market (9,300 human responses), SSR achieves 90% of human test-retest reliability while maintaining realistic response distributions (KS similarity > 0.85). Additionally, these synthetic respondents provide rich qualitative feedback explaining their ratings. This framework enables scalable consumer research simulations while preserving traditional survey metrics and interpretability.
- Abstract(参考訳): 消費者調査は毎年何十億ドルもの企業を犠牲にしているが、パネルバイアスと限られた規模に悩まされている。
大規模言語モデル(LLM)は、合成消費者をシミュレートする代替手段を提供するが、数値評価を直接要求すると非現実的な応答分布を生成する。
本稿では,LLMからテキスト応答を抽出し,参照文への埋め込み類似性を用いたLikert分布にマッピングする意味的類似度評価(SSR)を提案する。
先進企業による57件の個人ケア製品調査(9,300件の人的反応)からなる広範囲なデータセットを用いて、SSRは、現実的な応答分布を維持しながら、人間のテスト-テスト信頼性の90%を達成している(KS類似度 > 0.85)。
さらに、これらの総合的な回答者は、彼らの評価を説明する豊かな質的なフィードバックを提供する。
このフレームワークは、従来の調査メトリクスと解釈可能性を維持しながら、スケーラブルな消費者調査シミュレーションを可能にする。
関連論文リスト
- Quantifying and Mitigating Socially Desirable Responding in LLMs: A Desirability-Matched Graded Forced-Choice Psychometric Study [0.0]
ヒトの自己報告アンケートは、大規模な言語モデルのベンチマークと監査に、NLPでますます使われている。
本研究では,大規模言語モデルの質問紙による評価において,SDRの定量化と緩和を目的とした心理測定フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-19T11:07:24Z) - Large Language Models Are Bad Dice Players: LLMs Struggle to Generate Random Numbers from Statistical Distributions [50.1404916337174]
大規模言語モデル(LLM)における母国語の確率的サンプリングの大規模,統計的に活用された最初の監査について述べる。
バッチ生成は, ほぼ完全に崩壊する一方, 中央値のパスレートが13%であり, 統計的妥当性はわずかであることがわかった。
現在のLCMには機能的な内部サンプルが欠如しており、統計的保証を必要とするアプリケーションに外部ツールを使う必要があると結論付けている。
論文 参考訳(メタデータ) (2026-01-08T22:33:12Z) - RefineBench: Evaluating Refinement Capability of Language Models via Checklists [71.02281792867531]
本研究は,2つの改良モード(ガイドリファインメントと自己リファインメント)を評価する。
ガイド付き改良では、プロプライエタリなLMと大きなオープンウェイトLMの両方が目標フィードバックを利用して、5ターン以内のほぼ完全なレベルへの応答を洗練できる。
これらの結果は、フロンティアLMは誤った反応を自己調整するためにブレークスルーを必要とすることを示唆している。
論文 参考訳(メタデータ) (2025-11-27T07:20:52Z) - Emulating Public Opinion: A Proof-of-Concept of AI-Generated Synthetic Survey Responses for the Chilean Case [0.0]
大規模言語モデル (LLMs) は、調査研究における方法論的および応用的な革新のための有望な道を提供する。
チリの世論確率論的調査から, LLM生成型人工サーベイ応答の信頼性を評価する。
論文 参考訳(メタデータ) (2025-09-11T21:43:59Z) - Beyond "Not Novel Enough": Enriching Scholarly Critique with LLM-Assisted Feedback [81.0031690510116]
本稿では,3段階を通して専門家レビューアの動作をモデル化する,自動ノベルティ評価のための構造化アプローチを提案する。
本手法は,人文のノベルティレビューを大規模に分析した結果から得られたものである。
182 ICLR 2025 の提出で評価されたこの手法は、人間の推論と86.5%の一致と、新規性の結論に関する75.3%の合意を達成している。
論文 参考訳(メタデータ) (2025-08-14T16:18:37Z) - Prompt Perturbations Reveal Human-Like Biases in LLM Survey Responses [1.7170969275523118]
大規模言語モデル (LLMs) は、社会科学調査において、人間の被験者のプロキシとしてますます使われている。
本稿では,標準調査文脈におけるLCMの応答ロバスト性について検討する。
論文 参考訳(メタデータ) (2025-07-09T18:01:50Z) - RAG-Zeval: Towards Robust and Interpretable Evaluation on RAG Responses through End-to-End Rule-Guided Reasoning [64.46921169261852]
RAG-Zevalは、ルール誘導推論タスクとして忠実さと正しさの評価を定式化する、新しいエンドツーエンドフレームワークである。
提案手法は、強化学習による評価者を訓練し、コンパクトなモデルにより包括的および音質評価を生成する。
実験では、RAG-Zevalの優れた性能を示し、人間の判断と最も強い相関性を達成した。
論文 参考訳(メタデータ) (2025-05-28T14:55:33Z) - Estimating LLM Consistency: A User Baseline vs Surrogate Metrics [13.001452293293596]
大型言語モデル(LLM)は幻覚や敏感な摂動を引き起こす傾向がある。
本稿では,LLMの一貫性を推定するためのロジットに基づくアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2025-05-26T16:53:47Z) - Uncertainty Quantification for LLM-Based Survey Simulations [9.303339416902995]
本研究では,大規模言語モデル(LLM)を用いて質問に対する人間の反応をシミュレートする。
提案手法は,不完全なLLMシミュレーション応答を集団パラメータの信頼セットに変換する。
重要な革新は、シミュレーションされたレスポンスの最適な数を決定することである。
論文 参考訳(メタデータ) (2025-02-25T02:07:29Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。