論文の概要: The Role of Social Learning and Collective Norm Formation in Fostering Cooperation in LLM Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2510.14401v1
- Date: Thu, 16 Oct 2025 07:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.770365
- Title: The Role of Social Learning and Collective Norm Formation in Fostering Cooperation in LLM Multi-Agent Systems
- Title(参考訳): LLM多エージェントシステムにおけるソーシャルラーニングと集団ノルム形成の役割
- Authors: Prateek Gupta, Qiankun Zhong, Hiromu Yakura, Thomas Eisenmann, Iyad Rahwan,
- Abstract要約: 我々は、明確な報酬信号を取り除き、文化進化機構を組み込むCPRシミュレーションフレームワークを導入する。
環境および社会的初期化のグリッドである2時間2ドルの標準的進化について検討する。
本研究は,協調の維持と規範形成における系統的モデルの違いを明らかにする。
- 参考スコア(独自算出の注目度): 13.628908663240564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A growing body of multi-agent studies with Large Language Models (LLMs) explores how norms and cooperation emerge in mixed-motive scenarios, where pursuing individual gain can undermine the collective good. While prior work has explored these dynamics in both richly contextualized simulations and simplified game-theoretic environments, most LLM systems featuring common-pool resource (CPR) games provide agents with explicit reward functions directly tied to their actions. In contrast, human cooperation often emerges without full visibility into payoffs and population, relying instead on heuristics, communication, and punishment. We introduce a CPR simulation framework that removes explicit reward signals and embeds cultural-evolutionary mechanisms: social learning (adopting strategies and beliefs from successful peers) and norm-based punishment, grounded in Ostrom's principles of resource governance. Agents also individually learn from the consequences of harvesting, monitoring, and punishing via environmental feedback, enabling norms to emerge endogenously. We establish the validity of our simulation by reproducing key findings from existing studies on human behavior. Building on this, we examine norm evolution across a $2\times2$ grid of environmental and social initialisations (resource-rich vs. resource-scarce; altruistic vs. selfish) and benchmark how agentic societies comprised of different LLMs perform under these conditions. Our results reveal systematic model differences in sustaining cooperation and norm formation, positioning the framework as a rigorous testbed for studying emergent norms in mixed-motive LLM societies. Such analysis can inform the design of AI systems deployed in social and organizational contexts, where alignment with cooperative norms is critical for stability, fairness, and effective governance of AI-mediated environments.
- Abstract(参考訳): LLM(Large Language Models)を用いたマルチエージェント研究の組織が成長し、混合モチベーションシナリオにおいてノルムと協力が出現し、個々のゲインを追求することが集団の利益を損なう可能性がある。
従来の研究では、リッチな文脈化されたシミュレーションと単純化されたゲーム理論環境の両方において、これらのダイナミクスを探索してきたが、ほとんどのLLMシステムは、共通のプールリソース(CPR)ゲームを備えたシステムによって、エージェントがアクションに直接結びついている明示的な報酬関数を提供する。
対照的に、人間の協力は、その代わりにヒューリスティックス、コミュニケーション、罰に頼って、給与や人口を十分に理解せずに現れることが多い。
我々は,オストロムの資源管理原則に基づく社会的学習(成功している仲間からの戦略や信念の獲得)と規範に基づく罰という,明確な報酬シグナルを排除し,文化的進化のメカニズムを組み込んだCPRシミュレーションフレームワークを導入する。
エージェントはまた、環境フィードバックを通じて収穫、監視、処罰の結果から個別に学習し、規範が不均一に出現することを可能にする。
我々は,人間の行動に関する既存の研究から重要な知見を再現し,シミュレーションの有効性を確立する。
これに基づいて、環境と社会の初期化(資源豊かか、利他的、利他的、利他的、利他的、利他的)のグリッドにまたがる規範的進化を検証し、これらの条件下でエージェント的社会がどう機能するかをベンチマークする。
本研究は,複合モチベーション LLM 社会における創発的規範を研究するための厳密な試験場として,協調と規範形成の体系的差異を明らかにした。
このような分析は、AIを介する環境の安定性、公平性、効果的なガバナンスにおいて、協調的な規範との整合が不可欠である社会的および組織的な文脈に展開されるAIシステムの設計を通知することができる。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。