論文の概要: Social Simulations with Large Language Model Risk Utopian Illusion
- arxiv url: http://arxiv.org/abs/2510.21180v1
- Date: Fri, 24 Oct 2025 06:08:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.385258
- Title: Social Simulations with Large Language Model Risk Utopian Illusion
- Title(参考訳): 大言語モデルによるユートピア・イリュージョンの社会的シミュレーション
- Authors: Ning Bian, Xianpei Han, Hongyu Lin, Baolei Wu, Jun Wang,
- Abstract要約: 社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
- 参考スコア(独自算出の注目度): 61.358959720048354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable simulation of human behavior is essential for explaining, predicting, and intervening in our society. Recent advances in large language models (LLMs) have shown promise in emulating human behaviors, interactions, and decision-making, offering a powerful new lens for social science studies. However, the extent to which LLMs diverge from authentic human behavior in social contexts remains underexplored, posing risks of misinterpretation in scientific studies and unintended consequences in real-world applications. Here, we introduce a systematic framework for analyzing LLMs' behavior in social simulation. Our approach simulates multi-agent interactions through chatroom-style conversations and analyzes them across five linguistic dimensions, providing a simple yet effective method to examine emergent social cognitive biases. We conduct extensive experiments involving eight representative LLMs across three families. Our findings reveal that LLMs do not faithfully reproduce genuine human behavior but instead reflect overly idealized versions of it, shaped by the social desirability bias. In particular, LLMs show social role bias, primacy effect, and positivity bias, resulting in "Utopian" societies that lack the complexity and variability of real human interactions. These findings call for more socially grounded LLMs that capture the diversity of human social behavior.
- Abstract(参考訳): 人間の行動の信頼性のあるシミュレーションは、社会における説明、予測、介入に不可欠である。
大規模言語モデル(LLM)の最近の進歩は、人間の行動、相互作用、意思決定をエミュレートし、社会科学研究のための強力な新しいレンズを提供する。
しかし、LLMが社会的文脈における真の人間の行動から発散する範囲は、科学的研究における誤解釈のリスクや、現実の応用における意図しない結果のリスクを生じさせ、未解明のままである。
本稿では,社会シミュレーションにおけるLCMの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,これらを5つの言語次元にわたって分析し,創発的社会的認知バイアスを調べるための簡便かつ効果的な方法を提供する。
3つの家系にまたがる8つの LLM に関する広範な実験を行った。
以上の結果から, LLMは真の人間の行動を忠実に再現するのではなく, 社会的望ましくないバイアスによって形成された, 過度に理想化されたバージョンを反映していることが明らかとなった。
特に、LLMは、社会的役割バイアス、プライマリー効果、肯定的バイアスを示し、結果として「ユートピア」社会は、実際の人間の相互作用の複雑さと多様性を欠いている。
これらの発見は、人間の社会的行動の多様性を捉えたより社会的に根ざしたLSMを求める。
関連論文リスト
- SocialEval: Evaluating Social Intelligence of Large Language Models [70.90981021629021]
ソーシャルインテリジェンス(英語版) (SI) は、社会的目標を達成するために社会的相互作用をナビゲートする際に賢明に行動する対人能力を持つ人間を装備する。
結果指向の目標達成評価とプロセス指向の対人能力評価という,運用評価パラダイムを提示する。
スクリプトベースのバイリンガルSIベンチマークであるSocialEvalを提案する。
論文 参考訳(メタデータ) (2025-06-01T08:36:51Z) - SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users [70.02370111025617]
本稿では,社会シミュレーションのためのエージェント駆動世界モデルであるSocioVerseを紹介する。
私たちのフレームワークは、4つの強力なアライメントコンポーネントと1000万の実際の個人からなるユーザプールを備えています。
SocioVerseは、多様性、信頼性、代表性を確保しつつ、大規模な人口動態を反映できることを示した。
論文 参考訳(メタデータ) (2025-04-14T12:12:52Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Is this the real life? Is this just fantasy? The Misleading Success of Simulating Social Interactions With LLMs [24.613282867543244]
大規模言語モデル(LLM)はより豊かな社会シミュレーションを可能にし、様々な社会現象の研究を可能にしている。
最近の研究は、これらのシミュレーションについて、人間とAIエージェントが現実世界で関与する不完全で情報非対称な相互作用と、基本的には異なっています。
論文 参考訳(メタデータ) (2024-03-08T03:49:17Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。