論文の概要: Too Open for Opinion? Embracing Open-Endedness in Large Language Models for Social Simulation
- arxiv url: http://arxiv.org/abs/2510.13884v1
- Date: Tue, 14 Oct 2025 01:40:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.509092
- Title: Too Open for Opinion? Embracing Open-Endedness in Large Language Models for Social Simulation
- Title(参考訳): オピニオンにはオープンすぎるか? 社会シミュレーションのための大規模言語モデルにおけるオープンエンドレスネスの導入
- Authors: Bolei Ma, Yong Cao, Indira Sen, Anna-Carolina Haensch, Frauke Kreuter, Barbara Plank, Daniel Hershcovich,
- Abstract要約: 大規模言語モデル(LLM)は、世論やその他の社会現象をシミュレートするためにますます使われている。
最近の研究の多くは、これらのシミュレーションを、スコアリングと比較の容易さのために、複数選択またはショートアンサー形式に制限している。
LLMのトピックや視点,推論過程をキャプチャする自由形式のテキストを用いたオープンディペンデンスは,現実的な社会シミュレーションには不可欠である,と我々は主張する。
- 参考スコア(独自算出の注目度): 45.59217976434971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly used to simulate public opinion and other social phenomena. Most current studies constrain these simulations to multiple-choice or short-answer formats for ease of scoring and comparison, but such closed designs overlook the inherently generative nature of LLMs. In this position paper, we argue that open-endedness, using free-form text that captures topics, viewpoints, and reasoning processes "in" LLMs, is essential for realistic social simulation. Drawing on decades of survey-methodology research and recent advances in NLP, we argue why this open-endedness is valuable in LLM social simulations, showing how it can improve measurement and design, support exploration of unanticipated views, and reduce researcher-imposed directive bias. It also captures expressiveness and individuality, aids in pretesting, and ultimately enhances methodological utility. We call for novel practices and evaluation frameworks that leverage rather than constrain the open-ended generative diversity of LLMs, creating synergies between NLP and social science.
- Abstract(参考訳): 大規模言語モデル(LLM)は、世論やその他の社会現象をシミュレートするためにますます使われている。
最近の研究の多くは、これらのシミュレーションを、スコアリングと比較の容易さのために、複数選択やショートアンサー形式に制限しているが、そのようなクローズドな設計は、LLMの本質的に生成的な性質を軽視している。
本稿では,LLMのトピックや視点,推論過程をキャプチャする自由形式のテキストを用いたオープンエンドネスが,現実的な社会シミュレーションに欠かせないものであることを論じる。
数十年にわたる調査・方法論研究と最近のNLPの進歩に基づき、このオープンエンドネスがLLM社会シミュレーションに価値がある理由を論じ、計測と設計の改善、予期しない視点の探索、研究者が提案するディレクティブバイアスの低減をいかに支援できるかを示した。
また、表現力と個性、事前試験の支援、そして究極的には方法論的有用性を高める。
我々は,NLPと社会科学の相乗効果を生み出すために,LLMのオープンな生成多様性を制約するのではなく,新たな実践と評価の枠組みを提唱する。
関連論文リスト
- Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - LLM Social Simulations Are a Promising Research Method [4.6456873975541635]
我々は,5つの難題に対処することで,LLM社会シミュレーションの約束を達成できると主張している。
LLMの社会シミュレーションは、すでにパイロット実験や探索研究に利用できると信じている。
研究者は、新しいAIシステムを最大限に活用するために、概念モデルと反復評価の開発を優先すべきである。
論文 参考訳(メタデータ) (2025-04-03T03:01:26Z) - Large Language Model Driven Agents for Simulating Echo Chamber Formation [5.6488384323017]
ソーシャルメディアプラットフォームにおけるエコーチャンバーの台頭は、分極と既存の信念の強化に対する懸念を高めている。
エコーチャンバーの形成をシミュレーションするための従来の手法は、しばしば事前定義された規則や数値シミュレーションに依存してきた。
本稿では,大言語モデル(LLM)を生成エージェントとして活用し,エコーチャンバー力学をシミュレートする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T12:05:11Z) - Designing Domain-Specific Large Language Models: The Critical Role of Fine-Tuning in Public Opinion Simulation [0.0]
本稿では,英国家庭縦断研究の社会デマトグラフィーデータを統合した,新しい微調整手法を提案する。
多様な合成プロファイルをエミュレートすることで、微調整されたモデルは、事前訓練されたモデルよりも大幅に優れている。
より広範な意味は、医療や教育などの分野にLLMをデプロイすること、包括的でデータ駆動型意思決定を促進することである。
論文 参考訳(メタデータ) (2024-09-28T10:39:23Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。