論文の概要: Survey Response Generation: Generating Closed-Ended Survey Responses In-Silico with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.11586v1
- Date: Mon, 13 Oct 2025 16:29:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.454462
- Title: Survey Response Generation: Generating Closed-Ended Survey Responses In-Silico with Large Language Models
- Title(参考訳): サーベイ応答生成:大規模言語モデルを用いたサイリコにおけるクローズドエンディングサーベイ応答の生成
- Authors: Georg Ahnert, Anna-Carolina Haensch, Barbara Plank, Markus Strohmaier,
- Abstract要約: 本稿では,各種調査応答生成手法が予測された調査応答に与える影響を系統的に検討する。
個別レベルとサブ集団レベルのアライメントにおいて,サーベイ応答生成法に有意な差が認められた。
以上の結果から,制約生成手法は全体としては最良であり,推論出力が常にアライメントを改善するわけではないことが示唆された。
- 参考スコア(独自算出の注目度): 34.9734826462006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many in-silico simulations of human survey responses with large language models (LLMs) focus on generating closed-ended survey responses, whereas LLMs are typically trained to generate open-ended text instead. Previous research has used a diverse range of methods for generating closed-ended survey responses with LLMs, and a standard practice remains to be identified. In this paper, we systematically investigate the impact that various Survey Response Generation Methods have on predicted survey responses. We present the results of 32 mio. simulated survey responses across 8 Survey Response Generation Methods, 4 political attitude surveys, and 10 open-weight language models. We find significant differences between the Survey Response Generation Methods in both individual-level and subpopulation-level alignment. Our results show that Restricted Generation Methods perform best overall, and that reasoning output does not consistently improve alignment. Our work underlines the significant impact that Survey Response Generation Methods have on simulated survey responses, and we develop practical recommendations on the application of Survey Response Generation Methods.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いた人間のサーベイ応答のシリカ内シミュレーションの多くは、クローズドエンドなサーベイ応答の生成に重点を置いているが、LLMは代わりにオープンエンドなテキストを生成するように訓練されているのが一般的である。
従来, LLM を用いたクローズドエンドサーベイ応答の生成には, 様々な手法が用いられてきた。
本稿では,各種サーベイ応答生成手法が予測されたサーベイ応答に与える影響を系統的に検討する。
32mioの結果を報告する。
8 つの調査応答生成方法,4 つの政治的態度調査,および10 つのオープンウェイト言語モデルによる調査応答のシミュレーションを行った。
個別レベルとサブ集団レベルのアライメントにおいて,サーベイ応答生成法に有意な差が認められた。
以上の結果から,制約生成手法は全体として最高の性能を示し,推論出力が常にアライメントを改善するわけではないことが示唆された。
本研究は,サーベイ応答生成手法がシミュレートされたサーベイ応答に与える影響を浮き彫りにし,サーベイ応答生成手法の適用に関する実践的勧告を開発する。
関連論文リスト
- Prompts to Proxies: Emulating Human Preferences via a Compact LLM Ensemble [46.82793004650415]
大規模言語モデル(LLM)は、様々なタスクにまたがる人間のような応答をエミュレートする可能性を実証している。
本研究では,LLMをエージェントプロキシとして扱う新しいアライメントフレームワークを提案する。
我々は、構造化されたプロンプトエンジニアリング、エントロピーに基づくサンプリング、回帰に基づく選択を用いて、LLMエージェントを代表的行動パターンに向けて操るシステムであるP2Pを紹介する。
論文 参考訳(メタデータ) (2025-09-14T15:08:45Z) - Leveraging Interview-Informed LLMs to Model Survey Responses: Comparative Insights from AI-Generated and Human Data [4.774576759157642]
混合手法の研究は量的および質的なデータを統合するが、それらの異なる構造を整合させる際の課題に直面している。
本研究では,大規模言語モデル(LLM)が人間の調査応答を確実に予測できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-28T05:57:26Z) - LLMs Can Generate a Better Answer by Aggregating Their Own Responses [83.69632759174405]
大きな言語モデル(LLM)はタスク間で顕著な機能を示しているが、複雑な問題に直面している場合、追加のプロンプト技術を必要とすることが多い。
この制限は、共通LLMポストトレーニング手順が差別的判断タスクの明示的な監督を欠いているという事実に起因している、と我々は主張する。
本稿では,モデルの識別機能を必要とせず,解答品質を向上させる手法である生成自己集合(GSA)を提案する。
論文 参考訳(メタデータ) (2025-03-06T05:25:43Z) - Language Model Fine-Tuning on Scaled Survey Data for Predicting Distributions of Public Opinions [4.020002996724124]
大規模言語モデル(LLM)は、調査設計の初期段階において、事前に調査応答を予測する。
本研究では, 調査データの特異な構造特性を利用して, 応答分布を推定するために, 直接微調整LLMを提案する。
本研究では,SubPOPの微調整により,様々なサブポピュレーションにおけるLLM予測と人間の反応の一致が大幅に改善されることを示す。
論文 参考訳(メタデータ) (2025-02-24T00:31:33Z) - Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。