論文の概要: LLM-Based Social Simulations Require a Boundary
- arxiv url: http://arxiv.org/abs/2506.19806v1
- Date: Tue, 24 Jun 2025 17:14:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.742696
- Title: LLM-Based Social Simulations Require a Boundary
- Title(参考訳): LLMに基づく社会シミュレーションは境界を必要とする
- Authors: Zengqing Wu, Run Peng, Takayuki Ito, Chuan Xiao,
- Abstract要約: 大規模言語モデル(LLM)に基づく社会シミュレーションは明確な境界を確立するべきである。
本稿では、アライメント(実世界のパターンにマッチするシミュレーション行動)、一貫性(時間とともに一貫性のあるエージェント動作を維持する)、堅牢性という3つの重要な境界問題について検討する。
- 参考スコア(独自算出の注目度): 3.351170542925928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that large language model (LLM)-based social simulations should establish clear boundaries to meaningfully contribute to social science research. While LLMs offer promising capabilities for modeling human-like agents compared to traditional agent-based modeling, they face fundamental limitations that constrain their reliability for social pattern discovery. The core issue lies in LLMs' tendency towards an ``average persona'' that lacks sufficient behavioral heterogeneity, a critical requirement for simulating complex social dynamics. We examine three key boundary problems: alignment (simulated behaviors matching real-world patterns), consistency (maintaining coherent agent behavior over time), and robustness (reproducibility under varying conditions). We propose heuristic boundaries for determining when LLM-based simulations can reliably advance social science understanding. We believe that these simulations are more valuable when focusing on (1) collective patterns rather than individual trajectories, (2) agent behaviors aligning with real population averages despite limited variance, and (3) proper validation methods available for testing simulation robustness. We provide a practical checklist to guide researchers in determining the appropriate scope and claims for LLM-based social simulations.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)に基づく社会シミュレーションは,社会科学研究に有意義な貢献をするために明確な境界を確立するべきであると論じる。
LLMは、従来のエージェントベースのモデリングと比較して、人間のようなエージェントをモデリングするための有望な機能を提供するが、社会的パターン発見の信頼性を制限する基本的な制限に直面している。
中心的な問題は、複雑な社会的ダイナミクスをシミュレートするための重要な要件である、十分な振る舞いの不均一性に欠ける「平均的ペルソナ」に対するLLMの傾向にある。
そこで本研究では,アライメント(実世界のパターンに一致するシミュレーション行動),一貫性(時間とともにコヒーレントなエージェント動作を維持する),堅牢性(様々な条件下での再現性)の3つの重要な境界問題について検討する。
LLMに基づくシミュレーションが社会科学の理解を確実に進めるかどうかを決定するためのヒューリスティック境界を提案する。
これらのシミュレーションは,(1)個々の軌跡よりも集団パターンに着目した場合,(2)分散が限られているにもかかわらず実際の人口平均と整合するエージェント行動,(3)シミュレーションの堅牢性をテストするための適切な検証方法に注目する上で,より有用であると考えられる。
LLMに基づく社会シミュレーションの適切なスコープとクレームを決定するために,研究者を指導する実践的なチェックリストを提供する。
関連論文リスト
- Modeling Earth-Scale Human-Like Societies with One Billion Agents [54.465233996410156]
Light Societyはエージェントベースのシミュレーションフレームワークである。
社会的プロセスはエージェントと環境状態の構造的遷移として形式化される。
10億以上のエージェントによる社会の効率的なシミュレーションを支援する。
論文 参考訳(メタデータ) (2025-06-07T09:14:12Z) - From ChatGPT to DeepSeek: Can LLMs Simulate Humanity? [32.93460040317926]
大規模言語モデル(LLM)は、複雑な人間の社会的行動を探究するための有望な方法となっている。
最近の研究では、シミュレートされた相互作用と現実世界の相互作用の相違が強調されている。
論文 参考訳(メタデータ) (2025-02-25T13:54:47Z) - GenSim: A General Social Simulation Platform with Large Language Model based Agents [111.00666003559324]
我々はtextitGenSim と呼ばれる新しい大規模言語モデル (LLM) ベースのシミュレーションプラットフォームを提案する。
我々のプラットフォームは10万のエージェントをサポートし、現実世界のコンテキストで大規模人口をシミュレートする。
我々の知る限り、GenSimは汎用的で大規模で修正可能な社会シミュレーションプラットフォームに向けた最初の一歩である。
論文 参考訳(メタデータ) (2024-10-06T05:02:23Z) - Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents [18.961470450132637]
本稿では、エージェントが文脈に深く関与し、明示的な指示なしに適応的な決定を行う自然現象の重要性を強調する。
我々は,3つの競争シナリオにまたがる自発的な協力を探究し,協力の段階的出現をシミュレートした。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。