論文の概要: Fictitious Play for Mean Field Games: Continuous Time Analysis and
Applications
- arxiv url: http://arxiv.org/abs/2007.03458v2
- Date: Mon, 26 Oct 2020 11:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:31:00.561103
- Title: Fictitious Play for Mean Field Games: Continuous Time Analysis and
Applications
- Title(参考訳): 平均フィールドゲームのための架空のプレイ:連続時間解析と応用
- Authors: Sarah Perrin, Julien Perolat, Mathieu Lauri\`ere, Matthieu Geist,
Romuald Elie, Olivier Pietquin
- Abstract要約: まず、連続時間有限プレイ過程の理論的収束解析を行い、誘導されたエクスプロイラビリティが$O(frac1t)$で減少することを示す。
ここでは,一般騒音の存在下での平均場競技における学習力学の収束を初めて行う。
- 参考スコア(独自算出の注目度): 36.76207130435722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we deepen the analysis of continuous time Fictitious Play
learning algorithm to the consideration of various finite state Mean Field Game
settings (finite horizon, $\gamma$-discounted), allowing in particular for the
introduction of an additional common noise.
We first present a theoretical convergence analysis of the continuous time
Fictitious Play process and prove that the induced exploitability decreases at
a rate $O(\frac{1}{t})$. Such analysis emphasizes the use of exploitability as
a relevant metric for evaluating the convergence towards a Nash equilibrium in
the context of Mean Field Games. These theoretical contributions are supported
by numerical experiments provided in either model-based or model-free settings.
We provide hereby for the first time converging learning dynamics for Mean
Field Games in the presence of common noise.
- Abstract(参考訳): 本稿では,有限状態平均場ゲーム設定(finite horizon,$\gamma$-discounted)を考慮し,連続時間架空の遊び学習アルゴリズムの解析を深め,特に追加のコモンノイズの導入を可能にする。
まず、連続時間有限プレイ過程の理論的収束解析を行い、誘導されたエクスプロイラビリティが$O(\frac{1}{t})$で減少することを示す。
このような分析は、平均フィールドゲームにおけるナッシュ均衡への収束を評価するための関連する指標として、搾取可能性の使用を強調している。
これらの理論的貢献は、モデルベースまたはモデルフリー設定で提供される数値実験によって支持される。
ここでは,共通雑音の存在下で平均フィールドゲームにおける学習ダイナミクスを収束させることを初めて提供する。
関連論文リスト
- Last-Iterate Convergence of Payoff-Based Independent Learning in Zero-Sum Stochastic Games [31.554420227087043]
両プレイヤー間のペイオフベース、収束、合理的、対称な学習ダイナミクスを開発する。
行列ゲーム設定では、結果はナッシュ分布を見つけるために$O(epsilon-1)$の複雑さを意味する。
ゲーム設定では、結果はナッシュ平衡を求めるために$O(epsilon-8)$の複雑さをも意味している。
論文 参考訳(メタデータ) (2024-09-02T20:07:25Z) - Last-iterate Convergence Separation between Extra-gradient and Optimism in Constrained Periodic Games [31.989723099872638]
2人プレイのゼロサムゲームにおける学習アルゴリズムの終局的動作について、広範囲に研究されている。
既存の結果の多くは、ゲームが時間に依存しないという仮定の下でこれらの特性を確立する。
本稿では,制約付き周期ゲームにおける楽観的および外段階的手法の終局的挙動について検討する。
論文 参考訳(メタデータ) (2024-06-15T11:50:36Z) - Graphon Mean Field Games with a Representative Player: Analysis and Learning Algorithm [14.647775453098513]
軽度の仮定でグラノン平衡の存在と特異性を証明し、この平衡を用いてネットワーク上の有限プレイヤーゲームに対する近似解を構築することができることを示す。
オンラインのオラクルフリー学習アルゴリズムは平衡を数値的に解くために開発され、その収束のためにサンプル複雑性解析が提供される。
論文 参考訳(メタデータ) (2024-05-08T04:44:16Z) - Game-Theoretic Robust Reinforcement Learning Handles Temporally-Coupled Perturbations [98.5802673062712]
我々は時間的に結合した摂動を導入し、既存の頑健な強化学習手法に挑戦する。
本稿では、時間的に結合したロバストなRL問題を部分的に観測可能な2プレイヤーゼロサムゲームとして扱う新しいゲーム理論であるGRADを提案する。
論文 参考訳(メタデータ) (2023-07-22T12:10:04Z) - Learning Correlated Equilibria in Mean-Field Games [62.14589406821103]
我々は平均場相関と粗相関平衡の概念を発展させる。
ゲームの構造に関する仮定を必要とせず,効率よくゲーム内で学習できることが示される。
論文 参考訳(メタデータ) (2022-08-22T08:31:46Z) - A unified stochastic approximation framework for learning in games [82.74514886461257]
ゲームにおける学習の長期的挙動(連続的・有限的)を解析するためのフレキシブルな近似フレームワークを開発する。
提案する分析テンプレートには,勾配に基づく手法,有限ゲームでの学習のための指数的/乗算的重み付け,楽観的および帯域的変異など,幅広い一般的な学習アルゴリズムが組み込まれている。
論文 参考訳(メタデータ) (2022-06-08T14:30:38Z) - Scaling up Mean Field Games with Online Mirror Descent [55.36153467919289]
オンラインミラー Descent (OMD) を用いた平均場ゲーム (MFG) のスケールアップ均衡計算に対処する。
連続時間 OMD は自然かつモチベーションの良い単調性仮定の集合の下でナッシュ平衡に確実に収束することを示す。
様々な単一および多集団MFGに関する徹底的な実験的研究は、OMDがFictitious Play (FP)のような従来のアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2021-02-28T21:28:36Z) - Provable Fictitious Play for General Mean-Field Games [111.44976345867005]
静止平均場ゲームのための強化学習アルゴリズムを提案する。
目標は、ナッシュ均衡を構成する平均場状態と定常政策のペアを学ぶことである。
論文 参考訳(メタデータ) (2020-10-08T18:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。