論文の概要: Evolution of Coordination Through Institutional Incentives: An Evolutionary Game Theory Approach
- arxiv url: http://arxiv.org/abs/2509.10112v1
- Date: Fri, 12 Sep 2025 10:08:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.046867
- Title: Evolution of Coordination Through Institutional Incentives: An Evolutionary Game Theory Approach
- Title(参考訳): 制度的インセンティブによるコーディネーションの進化:進化ゲーム理論のアプローチ
- Authors: Ndidi Bianca Ogbo, Zhao Song, The Anh Han,
- Abstract要約: 報酬に基づくインセンティブアプローチは、罰に基づくアプローチよりも、常に協調的な成功をもたらすことを示す。
これらの知見は,新技術の広範かつ協調的な採用を促進するために,制度的インセンティブを設計するための新たな洞察を与えるものである。
- 参考スコア(独自算出の注目度): 8.069172296133953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a broad recognition that commitment-based mechanisms can promote coordination and cooperative behaviours in both biological populations and self-organised multi-agent systems by making individuals' intentions explicit prior to engagement. Yet their effectiveness depends on sustained compliance supported by institutions, especially in one-off interactions. Despite advances in quantitative studies of cooperation and commitment, most applied analyses and policy debates remain largely qualitative, with limited attention to the allocation of scarce institutional resources between enhancing participation and ensuring commitment compliance. Herein, we develop an evolutionary game-theoretic model that explicitly examines the strategic distribution of a limited budget for institutional incentives, namely rewards or punishments, aimed at these two critical objectives within pre-commitment frameworks. Our findings reveal that a reward-based incentive approach consistently yields greater coordination success than a punishment-based approach, with optimal outcomes arising when resources are appropriately distributed between participation promotion and compliance assurance. These findings offer novel insights for designing institutional incentives to promote broad, coordinated adoption of new technologies.
- Abstract(参考訳): コミットメントに基づくメカニズムは、婚約前に個人の意図を明確にすることで、生物集団と自己組織型マルチエージェントシステムの協調と協調行動を促進することができると広く認識されている。
しかし、それらの効果は、特にワンオフ相互作用において、機関が支持する持続的コンプライアンスに依存している。
協力とコミットメントの定量的研究の進展にもかかわらず、ほとんどの応用分析と政策に関する議論は質的であり、参加の強化とコミットメントの遵守の確保の間に制度的資源が不足していることに注意が注がれている。
そこで本稿では, 制度的インセンティブ, 報酬, 罰といった, 限られた予算の戦略的分布を明確に把握する進化的ゲーム理論モデルを構築し, プレコミットフレームワークにおけるこれらの2つの重要な目標について検討する。
その結果,報酬に基づくインセンティブアプローチは,参加促進とコンプライアンス保証の間に資源が適切に分散された場合に生じる最適結果が,罰に基づくアプローチよりも一貫してコーディネーションの成功をもたらすことが明らかとなった。
これらの知見は,新技術の広範かつ協調的な採用を促進するために,制度的インセンティブを設計するための新たな洞察を与えるものである。
関連論文リスト
- Offline Multi-agent Reinforcement Learning via Score Decomposition [51.23590397383217]
オフライン協調型マルチエージェント強化学習(MARL)は、分散シフトによる固有の課題に直面している。
この作業は、オフラインとオンラインのMARL間の分散ギャップを明示的に解決する最初の作業である。
論文 参考訳(メタデータ) (2025-05-09T11:42:31Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Cognitive Insights and Stable Coalition Matching for Fostering Multi-Agent Cooperation [5.78800431720813]
本稿では,ToMレベルの異なるエージェントの強度を利用する新しい連立機構を提案する。
我々の研究は、ToMを活用して、より高度で人間らしいコーディネーション戦略を構築する可能性を実証しています。
論文 参考訳(メタデータ) (2024-05-28T10:59:33Z) - ROMA-iQSS: An Objective Alignment Approach via State-Based Value Learning and ROund-Robin Multi-Agent Scheduling [44.276285521929424]
本稿では,エージェントが独立して最適な状態を発見できる分散状態ベース価値学習アルゴリズムを提案する。
我々の理論分析は、我々のアプローチが分散化されたエージェントを最適な集団政策へと導くことを示している。
さらに実験により,本手法が既存の分散状態ベースおよび行動ベース価値学習戦略より優れていることを示す。
論文 参考訳(メタデータ) (2024-04-05T09:39:47Z) - Iterated Reasoning with Mutual Information in Cooperative and Byzantine
Decentralized Teaming [0.0]
我々は,政策グラディエント(PG)の下での最適化において,エージェントの方針がチームメイトの方針に準じることが,本質的に相互情報(MI)の下限を最大化することを示す。
我々の手法であるInfoPGは、創発的協調行動の学習におけるベースラインを上回り、分散協調型MARLタスクにおける最先端の課題を設定します。
論文 参考訳(メタデータ) (2022-01-20T22:54:32Z) - A Deep Reinforcement Learning Approach to Marginalized Importance
Sampling with the Successor Representation [61.740187363451746]
マージナライズド・プライバシ・サンプリング(MIS)は、ターゲットポリシーのステートアクション占有率とサンプリング分布の密度比を測定する。
我々は,MISと深層強化学習のギャップを,目標方針の後継表現から密度比を計算することによって埋める。
我々は,Atari環境とMuJoCo環境に対するアプローチの実証的性能を評価した。
論文 参考訳(メタデータ) (2021-06-12T20:21:38Z) - Evolution of Coordination in Pairwise and Multi-player Interactions via
Prior Commitments [0.8701566919381222]
我々は、事前のコミットメントがコーディネーションを強化するための進化的なメカニズムであることを示す。
マルチパーティインタラクションでは、高いレベルのグループ多様性が必要な場合、事前のコミットメントが不可欠であることが証明される。
我々の分析は、人間のコミットメント能力によって引き起こされる行動進化の複雑さと美しさに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2020-09-24T14:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。