論文の概要: Game on Random Environment, Mean-field Langevin System and Neural
Networks
- arxiv url: http://arxiv.org/abs/2004.02457v2
- Date: Wed, 22 Apr 2020 21:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:35:06.763135
- Title: Game on Random Environment, Mean-field Langevin System and Neural
Networks
- Title(参考訳): ランダム環境ゲーム,平均場ランゲヴィンシステム,ニューラルネットワーク
- Authors: Giovanni Conforti (CMAP), Anna Kazeykina (LMO), Zhenjie Ren (CEREMADE)
- Abstract要約: プレイヤーの戦略がランダムな環境変数を介して結合される相対エントロピーによって正規化されるゲームの種類について検討する。
我々は、対応する平均場ランゲヴィン系の限界法則が、異なる設定でゲームの平衡に向かって収束できることを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we study a type of games regularized by the relative entropy,
where the players' strategies are coupled through a random environment
variable. Besides the existence and the uniqueness of equilibria of such games,
we prove that the marginal laws of the corresponding mean-field Langevin
systems can converge towards the games' equilibria in different settings. As
applications, the dynamic games can be treated as games on a random environment
when one treats the time horizon as the environment. In practice, our results
can be applied to analysing the stochastic gradient descent algorithm for deep
neural networks in the context of supervised learning as well as for the
generative adversarial networks.
- Abstract(参考訳): 本稿では,プレイヤーの戦略をランダム環境変数で結合した相対エントロピーによって規則化されたゲームの種類について検討する。
そのようなゲームの平衡の存在と特異性に加えて、対応する平均場ランゲヴィン系の限界法則が異なる設定でゲームの平衡に収束できることを証明する。
アプリケーションとして、動的ゲームは、時間軸を環境として扱う場合、ランダム環境上のゲームとして扱うことができる。
実際に,本研究の結果は,教師付き学習の文脈における深層ニューラルネットワークの確率勾配勾配アルゴリズムの解析や,生成的敵ネットワークの解析に応用できる。
関連論文リスト
- On Tractable $Φ$-Equilibria in Non-Concave Games [53.212133025684224]
非凹面ゲームはゲーム理論と最適化に重大な課題をもたらす。
Phi$が有限であるとき、対応する$Phi$-equilibriaに収束する効率的な非結合学習アルゴリズムが存在することを示す。
また,オンライングラディエントDescentは,非自明な状況下で効率よく$Phi$-equilibriaを近似できることを示した。
論文 参考訳(メタデータ) (2024-03-13T01:51:30Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - On the Convergence of No-Regret Learning Dynamics in Time-Varying Games [89.96815099996132]
時間変化ゲームにおける楽観的勾配降下(OGD)の収束を特徴付ける。
我々のフレームワークは、ゼロサムゲームにおけるOGDの平衡ギャップに対して鋭い収束境界をもたらす。
また,静的ゲームにおける動的後悔の保証に関する新たな洞察も提供する。
論文 参考訳(メタデータ) (2023-01-26T17:25:45Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Learning Correlated Equilibria in Mean-Field Games [62.14589406821103]
我々は平均場相関と粗相関平衡の概念を発展させる。
ゲームの構造に関する仮定を必要とせず,効率よくゲーム内で学習できることが示される。
論文 参考訳(メタデータ) (2022-08-22T08:31:46Z) - A unified stochastic approximation framework for learning in games [82.74514886461257]
ゲームにおける学習の長期的挙動(連続的・有限的)を解析するためのフレキシブルな近似フレームワークを開発する。
提案する分析テンプレートには,勾配に基づく手法,有限ゲームでの学習のための指数的/乗算的重み付け,楽観的および帯域的変異など,幅広い一般的な学習アルゴリズムが組み込まれている。
論文 参考訳(メタデータ) (2022-06-08T14:30:38Z) - Evolutionary Strategies with Analogy Partitions in p-guessing Games [0.0]
不安定なpゲーム環境における学習のダイナミクスを研究するために,学習の進化過程を導入する。
我々の遺伝的アルゴリズムは、ナッシュ平衡に収束して、持続的な環境における過去の結果と一貫して振る舞うことを示す。
論文 参考訳(メタデータ) (2021-03-26T10:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。