論文の概要: Network coevolution drives segregation and enhances Pareto optimal
equilibrium selection in coordination games
- arxiv url: http://arxiv.org/abs/2211.12116v1
- Date: Tue, 22 Nov 2022 09:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:35:37.284456
- Title: Network coevolution drives segregation and enhances Pareto optimal
equilibrium selection in coordination games
- Title(参考訳): ネットワーク共進化は分離を駆動し、協調ゲームにおけるパレート最適平衡選択を強化する
- Authors: Miguel A. Gonz\'alez Casado, Angel S\'anchez and Maxi San Miguel
- Abstract要約: エージェントの動作の変化とネットワークダイナミクスを結合した共進化モデルを分析する。
GCGのRDとUIには、可塑性の中間値の体系が存在する。
Coevolutionは、両方の更新ルールに対するペイオフ優位な平衡選択を強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we assess the role played by the dynamical adaptation of the
interactions network, among agents playing Coordination Games, in reaching
global coordination and in the equilibrium selection. Specifically, we analyze
a coevolution model that couples the changes in agents' actions with the
network dynamics, so that while agents play the game, they are able to sever
some of their current connections and connect with others. We focus on two
update rules: Replicator Dynamics (RD) and Unconditional Imitation (UI). We
investigate a Pure Coordination Game (PCG), in which choices are equivalent,
and on a General Coordination Game (GCG), for which there is a risk-dominant
action and a payoff-dominant one. The network plasticity is measured by the
probability to rewire links. Changing this plasticity parameter, there is a
transition from a regime in which the system fully coordinates in a single
connected component to a regime in which the system fragments in two connected
components, each one coordinated on a different action (either if both actions
are equivalent or not). The nature of this fragmentation transition is
different for different update rules. Second, we find that both for RD and UI
in a GCG, there is a regime of intermediate values of plasticity, before the
fragmentation transition, for which the system is able to fully coordinate in a
single component network on the payoff-dominant action, i. e., coevolution
enhances payoff-dominant equilibrium selection for both update rules.
- Abstract(参考訳): 本研究では,コーディネーションゲームを行うエージェント間の相互作用ネットワークの動的適応が,グローバルコーディネートや均衡選択において果たす役割を評価する。
具体的には、エージェントの動作の変化をネットワークダイナミクスと組み合わせた共進化モデルを分析し、エージェントがゲームをプレイしている間に、現在の接続の一部を切断し、他の人と接続することができる。
Replicator Dynamics(RD)とUnconditional Imitation(UI)の2つの更新ルールに注目します。
我々は、選択が等価な純粋コーディネートゲーム(PCG)と、リスク優先のアクションとペイオフ優先のアクションがある一般コーディネートゲーム(GCG)について検討する。
ネットワーク可塑性はリンクを再配線する確率によって測定される。
この可塑性パラメータを変更することで、システムは単一の接続されたコンポーネントで完全に協調するレジームから、2つの接続されたコンポーネントでシステムを断片化するレジームへ移行する(どちらのアクションも等価かどうかに関わらず)。
この断片化移行の性質は、異なる更新ルールに対して異なる。
第2に,GCG における RD と UI のどちらにおいても,断片化遷移の前には可塑性の中間値の体系が存在すること,すなわち,システムが単一コンポーネントネットワークにおいて,ペイオフ・アドミナント・アクション上で完全に協調できることを示す。
e.
共進化は、両更新規則のペイオフ支配均衡選択を強化する。
関連論文リスト
- Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Plug-and-Play Regulators for Image-Text Matching [76.28522712930668]
微細な対応と視覚的セマンティックなアライメントの爆発は、画像とテキストのマッチングにおいて大きな可能性を秘めている。
我々は、メッセージ出力を効率的にエンコードして、コンテキストを自動生成し、モーダル表現を集約する、シンプルだが非常に効果的な2つのレギュレータを開発した。
MSCOCOとFlickr30Kデータセットの実験は、複数のモデルで印象的で一貫したR@1ゲインをもたらすことができることを実証している。
論文 参考訳(メタデータ) (2023-03-23T15:42:05Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - Coordination and equilibrium selection in games: the role of local
effects [0.0]
本研究では,2プレーヤ協調ゲームにおけるコーディネーションおよび平衡選択における局所効果と有限サイズ効果について検討した。
複製子ダイナミクス(RD)、最良の応答(BR)、無条件模倣(UI)の3つの更新ルールについて検討する。
2つの等価な戦略を持つ純粋コーディネートゲームでは、ネットワーク接続の重要な価値に対して、乱れ状態から完全なコーディネート状態への遷移を見出す。
論文 参考訳(メタデータ) (2021-10-19T15:05:29Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Competing Adaptive Networks [56.56653763124104]
適応エージェントのチーム間での分散競争のためのアルゴリズムを開発する。
本稿では,生成的対向ニューラルネットワークの分散学習への応用について述べる。
論文 参考訳(メタデータ) (2021-03-29T14:42:15Z) - Multi-Agent Coordination in Adversarial Environments through Signal
Mediated Strategies [37.00818384785628]
チームメンバーはゲームの開始前に戦略を調整できるが、ゲームのプレイ段階ではコミュニケーションが取れない。
この設定では、エージェントのポリシーが分散的に実行されるため、モデルフリーのRLメソッドはコーディネーションをキャプチャできないことが多い。
我々は,従来の最先端マルチエージェントRLアルゴリズムが適用しなかった場合に,座標平衡に収束することを示す。
論文 参考訳(メタデータ) (2021-02-09T18:44:16Z) - Resolving Implicit Coordination in Multi-Agent Deep Reinforcement
Learning with Deep Q-Networks & Game Theory [0.0]
深層強化学習における暗黙的協調の2つの大きな課題:非定常性と状態アクション空間の指数関数的成長。
ゲームタイプの知識は, Nash-Q よりも高速に収束し, 最適応答のミラー化を仮定する。
デュエリングネットワークアーキテクチャに触発されて,シングルエージェントとジョイントエージェントの両方の表現を学び,要素単位でそれらをマージする。
論文 参考訳(メタデータ) (2020-12-08T17:30:47Z) - Calibration of Shared Equilibria in General Sum Partially Observable
Markov Games [15.572157454411533]
我々は、異なるタイプのエージェントが単一のポリシーネットワークを共有する、一般的な可観測マルコフゲームを考える。
本稿は,そのようなエージェントが到達した平衡を形式的に理解すること,および,そのような平衡の創発的な現象を現実のターゲットに合わせることを目的としている。
論文 参考訳(メタデータ) (2020-06-23T15:14:20Z) - Evolving Dyadic Strategies for a Cooperative Physical Task [0.0]
我々はシミュレートされたエージェントを進化させ、実現可能なロールスイッチングポリシーの空間を探索する。
これらの切り替えポリシーを協調的なマニュアルタスクに適用すると、エージェントは視覚的および触覚的手がかりを処理して、いつ役割を切り替えるかを決定する。
最高の演奏ダイアドは高い時間的調整(反同期)を示す。
論文 参考訳(メタデータ) (2020-04-22T13:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。