論文の概要: Coordination and equilibrium selection in games: the role of local
effects
- arxiv url: http://arxiv.org/abs/2110.10036v1
- Date: Tue, 19 Oct 2021 15:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 02:00:47.022037
- Title: Coordination and equilibrium selection in games: the role of local
effects
- Title(参考訳): ゲームにおけるコーディネーションと均衡選択:局所的効果の役割
- Authors: Tomasz Raducha and Maxi San Miguel
- Abstract要約: 本研究では,2プレーヤ協調ゲームにおけるコーディネーションおよび平衡選択における局所効果と有限サイズ効果について検討した。
複製子ダイナミクス(RD)、最良の応答(BR)、無条件模倣(UI)の3つの更新ルールについて検討する。
2つの等価な戦略を持つ純粋コーディネートゲームでは、ネットワーク接続の重要な価値に対して、乱れ状態から完全なコーディネート状態への遷移を見出す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the role of local effects and finite size effects in reaching
coordination and in equilibrium selection in different types of two-player
coordination games. We investigate three update rules -- the replicator
dynamics (RD), the best response (BR), and the unconditional imitation (UI) --
for coordination games on random graphs. Local effects turn out to me
significantly more important for the UI update rule. For the pure coordination
game with two equivalent strategies we find a transition from a disordered
state to a state of full coordination for a critical value of the network
connectivity. The transition is system-size-independent for the BR and RD
update rules. For the IU update rule it is system size dependent, but
coordination can always be reached below the connectivity of a complete graph.
We also consider the general coordination game which covers a range of games,
such as the stag hunt. For these games there is a payoff-dominant strategy and
a risk-dominant strategy with associated states of equilibrium coordination. We
analyse equilibrium selection analytically and numerically. For the RD and BR
update rules mean-field predictions agree with simulations and the
risk-dominant strategy is evolutionary favoured independently of local effects.
When players use the unconditional imitation, however, we observe coordination
in the payoff-dominant strategy. Surprisingly, the selection of pay-off
dominant equilibrium only occurs below a critical value of the network
connectivity and it disappears in complete graphs. As we show, it is a
combination of local effects and update rule that allows for coordination on
the payoff-dominant strategy.
- Abstract(参考訳): 異なるタイプの2人プレイコーディネートゲームにおいて,局所効果と有限サイズ効果がコーディネートと平衡選択に果たす役割について検討した。
ランダムグラフのコーディネートゲームのための3つの更新ルールであるreplicator dynamics(rd)、the best response(br)、unconditional imitation(ui)を調査した。
ローカル効果は、uiアップデートルールにおいて、はるかに重要であることが分かりました。
2つの等価な戦略を持つ純粋コーディネートゲームでは、ネットワーク接続の重要な価値に対して、乱れ状態から完全なコーディネート状態への遷移を求める。
BRとRDの更新ルールはシステムサイズに依存しない。
IU更新ルールではシステムサイズに依存しているが、調整は常に完全なグラフの接続以下に到達できる。
また、ステージハントなど、様々なゲームをカバーする一般的なコーディネートゲームについても検討する。
これらのゲームには、ペイオフ支配戦略と、平衡調整の関連する状態を持つリスク支配戦略がある。
平衡選択を解析的および数値的に解析する。
RDとBRの更新規則では平均場予測はシミュレーションと一致し、リスク優位戦略は局所効果とは独立に進化的に好まれる。
しかし,プレイヤーが非条件模倣を使用する場合,ペイオフ支配戦略における調整を観察する。
驚くべきことに、ペイオフ支配均衡の選択はネットワーク接続の臨界値以下でのみ起こり、完全なグラフで消失する。
ご覧の通り、これはローカルエフェクトと更新ルールを組み合わせて、ペイオフ支配戦略の調整を可能にします。
関連論文リスト
- On Tractable $Φ$-Equilibria in Non-Concave Games [53.212133025684224]
非凹面ゲームはゲーム理論と最適化に重大な課題をもたらす。
Phi$が有限であるとき、対応する$Phi$-equilibriaに収束する効率的な非結合学習アルゴリズムが存在することを示す。
また,オンライングラディエントDescentは,非自明な状況下で効率よく$Phi$-equilibriaを近似できることを示した。
論文 参考訳(メタデータ) (2024-03-13T01:51:30Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - On the Convergence of No-Regret Learning Dynamics in Time-Varying Games [89.96815099996132]
時間変化ゲームにおける楽観的勾配降下(OGD)の収束を特徴付ける。
我々のフレームワークは、ゼロサムゲームにおけるOGDの平衡ギャップに対して鋭い収束境界をもたらす。
また,静的ゲームにおける動的後悔の保証に関する新たな洞察も提供する。
論文 参考訳(メタデータ) (2023-01-26T17:25:45Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Network coevolution drives segregation and enhances Pareto optimal
equilibrium selection in coordination games [0.0]
エージェントの動作の変化とネットワークダイナミクスを結合した共進化モデルを分析する。
GCGのRDとUIには、可塑性の中間値の体系が存在する。
Coevolutionは、両方の更新ルールに対するペイオフ優位な平衡選択を強化する。
論文 参考訳(メタデータ) (2022-11-22T09:33:02Z) - How Bad is Selfish Driving? Bounding the Inefficiency of Equilibria in
Urban Driving Games [64.71476526716668]
我々は,任意の平衡選手がプレーに同意するであろう効率について検討する。
我々は、アナーキーの価格に関する既存の境界を洗練させる保証を得る。
提案手法はオープンループ軌道に対する懸念を保証しているが,エージェントがクローズドループポリシーを採用する場合においても,効率的な平衡を観測する。
論文 参考訳(メタデータ) (2022-10-24T09:32:40Z) - Multi-Agent Coordination in Adversarial Environments through Signal
Mediated Strategies [37.00818384785628]
チームメンバーはゲームの開始前に戦略を調整できるが、ゲームのプレイ段階ではコミュニケーションが取れない。
この設定では、エージェントのポリシーが分散的に実行されるため、モデルフリーのRLメソッドはコーディネーションをキャプチャできないことが多い。
我々は,従来の最先端マルチエージェントRLアルゴリズムが適用しなかった場合に,座標平衡に収束することを示す。
論文 参考訳(メタデータ) (2021-02-09T18:44:16Z) - Independent Policy Gradient Methods for Competitive Reinforcement
Learning [62.91197073795261]
2つのエージェントによる競争強化学習環境における独立学習アルゴリズムに対するグローバル・非漸近収束保証を得る。
本研究は,両選手がタンデムで政策勾配法を実行すると,学習率を2回ルールに従えば,その政策はゲームの最小均衡に収束することを示す。
論文 参考訳(メタデータ) (2021-01-11T23:20:42Z) - Hindsight and Sequential Rationality of Correlated Play [18.176128899338433]
私たちは、修正された振る舞いで達成できたことに対して、強いパフォーマンスを後見で保証するアルゴリズムを検討します。
我々は,学習の隠れた枠組みを,逐次的な意思決定の場で開発し,提唱する。
本稿では,それぞれの平衡の強さと弱さを文献に示す例を示す。
論文 参考訳(メタデータ) (2020-12-10T18:30:21Z) - Resolving Implicit Coordination in Multi-Agent Deep Reinforcement
Learning with Deep Q-Networks & Game Theory [0.0]
深層強化学習における暗黙的協調の2つの大きな課題:非定常性と状態アクション空間の指数関数的成長。
ゲームタイプの知識は, Nash-Q よりも高速に収束し, 最適応答のミラー化を仮定する。
デュエリングネットワークアーキテクチャに触発されて,シングルエージェントとジョイントエージェントの両方の表現を学び,要素単位でそれらをマージする。
論文 参考訳(メタデータ) (2020-12-08T17:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。