論文の概要: Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem
- arxiv url: http://arxiv.org/abs/2509.04537v1
- Date: Thu, 04 Sep 2025 08:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.365594
- Title: Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem
- Title(参考訳): エルファロールバー問題におけるLDM剤の創発的社会動態
- Authors: Ryosuke Takata, Atsushi Masumori, Takashi Ikegammi,
- Abstract要約: 大規模言語モデル(LLM)エージェントの空間拡張型El Farol Bar問題における創発的社会的ダイナミクスについて検討する。
その結果、LSMエージェントはバーに行く自発的なモチベーションを生み出し、集団となって意思決定を変えた。
これらの結果は,従来のゲーム理論上の問題設定では扱えないグループ意思決定の新しいモデルが,LLMエージェントによって実現可能であることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the emergent social dynamics of Large Language Model (LLM) agents in a spatially extended El Farol Bar problem, observing how they autonomously navigate this classic social dilemma. As a result, the LLM agents generated a spontaneous motivation to go to the bar and changed their decision making by becoming a collective. We also observed that the LLM agents did not solve the problem completely, but rather behaved more like humans. These findings reveal a complex interplay between external incentives (prompt-specified constraints such as the 60\% threshold) and internal incentives (culturally-encoded social preferences derived from pre-training), demonstrating that LLM agents naturally balance formal game-theoretic rationality with social motivations that characterize human behavior. These findings suggest that a new model of group decision making, which could not be handled in the previous game-theoretic problem setting, can be realized by LLM agents.
- Abstract(参考訳): 空間的に拡張されたエルファロールバー問題において,Large Language Model (LLM) エージェントの創発的社会的ダイナミクスを考察し,この古典的社会ジレンマを自律的にナビゲートする方法を考察した。
その結果、LSMエージェントはバーに行く自発的なモチベーションを生み出し、集団となって意思決定を変えた。
また, LLM エージェントはこの問題を完全に解決するのではなく, むしろ人間のように振る舞った。
これらの結果から、外的インセンティブ(60 % の閾値などの特定制約)と内的インセンティブ(事前学習から派生した文化的にエンコードされた社会的嗜好)の複雑な相互作用が明らかとなり、LLMのエージェントは、人間の行動を特徴付ける社会的モチベーションとフォーマルなゲーム理論的合理性を自然にバランスさせることが示されている。
これらの結果は,従来のゲーム理論上の問題設定では扱えないグループ意思決定の新しいモデルが,LLMエージェントによって実現可能であることを示唆している。
関連論文リスト
- Neural Synchrony Between Socially Interacting Language Models [52.74586779814636]
大規模言語モデル(LLM)は人間の行動の強力な近似として広く受け入れられている。
人間の社会的心と有意義に比較できるかどうかについては議論の余地がある。
論文 参考訳(メタデータ) (2026-02-19T20:33:54Z) - An Empirical Study of Collective Behaviors and Social Dynamics in Large Language Model Agents [7.717798298716425]
LLMを駆使したソーシャルメディアプラットフォームであるChirper.aiは,32K LLMエージェント間の7Mポストとインタラクションを1年以上にわたって分析した。
我々はLSMの毒性言語とその言語的特徴,およびそれらの相互作用パターンについて検討し,LSMがヒトと有毒な姿勢において異なる構造パターンを示すことを発見した。
社会思想の連鎖 (CoST) は, 有害な投稿を避けるため, LLM エージェントを思い出させる簡易で効果的な方法である。
論文 参考訳(メタデータ) (2026-02-03T17:34:32Z) - Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - Opponent Shaping in LLM Agents [9.180524457769751]
本稿では,Large Language Models (LLM) を用いた対戦型シェーピング (OS) の最初の検討について述べる。
ShapeLLM を用いて,LLM エージェントが多種多様なゲーム理論環境における協調プレイヤの学習力学に影響を及ぼすかどうかを検討する。
以上の結果から, LLM エージェントは相互作用によって形状と形状を両立できることが明らかとなり, 多エージェント LLM 研究の鍵となる次元として対向型整形が確立された。
論文 参考訳(メタデータ) (2025-10-09T14:13:24Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Modeling Earth-Scale Human-Like Societies with One Billion Agents [54.465233996410156]
Light Societyはエージェントベースのシミュレーションフレームワークである。
社会的プロセスはエージェントと環境状態の構造的遷移として形式化される。
10億以上のエージェントによる社会の効率的なシミュレーションを支援する。
論文 参考訳(メタデータ) (2025-06-07T09:14:12Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Exploring Prosocial Irrationality for LLM Agents: A Social Cognition View [21.341128731357415]
大規模言語モデル(LLM)は、人間のバイアスを頻繁に含んでいるデータのために幻覚に直面することが示されている。
幻覚特性を利用してLLMエージェントのソーシャルインテリジェンスを評価し,強化するオープンエンドマルチLLMエージェントフレームワークであるCogMirを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:13:33Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation in Avalon Gameplay [55.12945794835791]
Avalon をテストベッドとして使用し,システムプロンプトを用いてゲームプレイにおける LLM エージェントの誘導を行う。
本稿では,Avalonに適した新しいフレームワークを提案し,効率的なコミュニケーションと対話を容易にするマルチエージェントシステムを提案する。
その結果、適応エージェントの作成におけるフレームワークの有効性を確認し、動的社会的相互作用をナビゲートするLLMベースのエージェントの可能性を提案する。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。