論文の概要: Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem
- arxiv url: http://arxiv.org/abs/2509.04537v2
- Date: Mon, 08 Sep 2025 11:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.395474
- Title: Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem
- Title(参考訳): エルファロールバー問題におけるLDM剤の創発的社会動態
- Authors: Ryosuke Takata, Atsushi Masumori, Takashi Ikegami,
- Abstract要約: 大規模言語モデル(LLM)エージェントの空間拡張型El Farol Bar問題における創発的社会的ダイナミクスについて検討する。
その結果、LSMエージェントはバーに行く自発的なモチベーションを生み出し、集団となって意思決定を変えた。
これらの結果は,従来のゲーム理論上の問題設定では扱えないグループ意思決定の新しいモデルが,LLMエージェントによって実現可能であることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the emergent social dynamics of Large Language Model (LLM) agents in a spatially extended El Farol Bar problem, observing how they autonomously navigate this classic social dilemma. As a result, the LLM agents generated a spontaneous motivation to go to the bar and changed their decision making by becoming a collective. We also observed that the LLM agents did not solve the problem completely, but rather behaved more like humans. These findings reveal a complex interplay between external incentives (prompt-specified constraints such as the 60% threshold) and internal incentives (culturally-encoded social preferences derived from pre-training), demonstrating that LLM agents naturally balance formal game-theoretic rationality with social motivations that characterize human behavior. These findings suggest that a new model of group decision making, which could not be handled in the previous game-theoretic problem setting, can be realized by LLM agents.
- Abstract(参考訳): 空間的に拡張されたエルファロールバー問題において,Large Language Model (LLM) エージェントの創発的社会的ダイナミクスを考察し,この古典的社会ジレンマを自律的にナビゲートする方法を考察した。
その結果、LSMエージェントはバーに行く自発的なモチベーションを生み出し、集団となって意思決定を変えた。
また, LLM エージェントはこの問題を完全に解決するのではなく, むしろ人間のように振る舞った。
これらの結果から、外的インセンティブ(60%のしきい値などの特定制約)と内的インセンティブ(事前学習から派生した文化的にエンコードされた社会的嗜好)の複雑な相互作用が明らかとなり、LDMのエージェントが、人間の行動を特徴付ける社会的モチベーションとフォーマルなゲーム理論的合理性を自然にバランスしていることが示されている。
これらの結果は,従来のゲーム理論上の問題設定では扱えないグループ意思決定の新しいモデルが,LLMエージェントによって実現可能であることを示唆している。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Modeling Earth-Scale Human-Like Societies with One Billion Agents [54.465233996410156]
Light Societyはエージェントベースのシミュレーションフレームワークである。
社会的プロセスはエージェントと環境状態の構造的遷移として形式化される。
10億以上のエージェントによる社会の効率的なシミュレーションを支援する。
論文 参考訳(メタデータ) (2025-06-07T09:14:12Z) - Exploring Prosocial Irrationality for LLM Agents: A Social Cognition View [21.341128731357415]
大規模言語モデル(LLM)は、人間のバイアスを頻繁に含んでいるデータのために幻覚に直面することが示されている。
幻覚特性を利用してLLMエージェントのソーシャルインテリジェンスを評価し,強化するオープンエンドマルチLLMエージェントフレームワークであるCogMirを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:13:33Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation in Avalon Gameplay [55.12945794835791]
Avalon をテストベッドとして使用し,システムプロンプトを用いてゲームプレイにおける LLM エージェントの誘導を行う。
本稿では,Avalonに適した新しいフレームワークを提案し,効率的なコミュニケーションと対話を容易にするマルチエージェントシステムを提案する。
その結果、適応エージェントの作成におけるフレームワークの有効性を確認し、動的社会的相互作用をナビゲートするLLMベースのエージェントの可能性を提案する。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。