論文の概要: Survival of the strictest: Stable and unstable equilibria under
regularized learning with partial information
- arxiv url: http://arxiv.org/abs/2101.04667v2
- Date: Thu, 4 Feb 2021 14:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:30:07.292622
- Title: Survival of the strictest: Stable and unstable equilibria under
regularized learning with partial information
- Title(参考訳): 最も厳密なまま生き残る:部分的情報を用いた正規化学習における安定かつ不安定な均衡
- Authors: Angeliki Giannou, Emmanouil-Vasileios Vlatakis-Gkaragkounis, Panayotis
Mertikopoulos
- Abstract要約: 一般Nプレイヤーゲームにおける非回帰学習のナッシュ平衡収束特性について検討する。
ナッシュ平衡の安定性と支持との包括的な等価性を確立します。
ゲームにおける非学習の日々の行動を予測するための明確な洗練基準を提供する。
- 参考スコア(独自算出の注目度): 32.384868685390906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we examine the Nash equilibrium convergence properties of
no-regret learning in general N-player games. For concreteness, we focus on the
archetypal follow the regularized leader (FTRL) family of algorithms, and we
consider the full spectrum of uncertainty that the players may encounter - from
noisy, oracle-based feedback, to bandit, payoff-based information. In this
general context, we establish a comprehensive equivalence between the stability
of a Nash equilibrium and its support: a Nash equilibrium is stable and
attracting with arbitrarily high probability if and only if it is strict (i.e.,
each equilibrium strategy has a unique best response). This equivalence extends
existing continuous-time versions of the folk theorem of evolutionary game
theory to a bona fide algorithmic learning setting, and it provides a clear
refinement criterion for the prediction of the day-to-day behavior of no-regret
learning in games
- Abstract(参考訳): 本稿では,N-プレイヤゲームにおける非回帰学習のナッシュ平衡収束特性について検討する。
具体的には、私たちは正規化リーダ(regularized leader, ftrl)のアルゴリズムに従う原型にフォーカスし、プレイヤーが遭遇する可能性のある不確実性(ノイズ、オラクルベースのフィードバック、バンディット、ペイオフベースの情報など)のスペクトルを十分に考慮しています。
この一般的な文脈では、ナッシュ均衡の安定性とその支持の間に包括的な等価性を確立する:ナッシュ均衡は安定であり、それが厳密である場合(すなわち、各均衡戦略が一意の最良の応答を持つ)に限り、任意に高い確率で引き寄せられる。
この等価性は、進化ゲーム理論のフォーク定理の既存の連続時間版をbona fideアルゴリズムによる学習設定に拡張し、ゲームにおける非回帰学習の日々の行動予測のための明確な洗練基準を提供する。
関連論文リスト
- Learning Nash Equilibria in Zero-Sum Markov Games: A Single Time-scale Algorithm Under Weak Reachability [11.793922711718645]
我々は,ゼロサムゲームにおいて,プレイヤーが情報のみを閲覧し,相手の行動や支払いを行うような分散学習を検討する。
従来の研究は、強い到達可能性仮定の下で二重時間スケールのアルゴリズムを用いて、この設定でナッシュ均衡に収束することを示した。
我々の貢献は合理的で収束したアルゴリズムであり、Tsallis-Entropy regularization を値イテレーションに基づくアルゴリズムで利用している。
論文 参考訳(メタデータ) (2023-12-13T09:31:30Z) - The equivalence of dynamic and strategic stability under regularized
learning in games [33.74394172275373]
有限ゲームにおける正規化学習の長時間動作について検討する。
戦略的安定性と動的安定性の等価性を得る。
エントロピー正則化に基づく手法は幾何速度で収束することを示す。
論文 参考訳(メタデータ) (2023-11-04T14:07:33Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Nash Equilibria and Pitfalls of Adversarial Training in Adversarial
Robustness Games [51.90475640044073]
本研究では,2プレイヤゼロサムゲームにおける最適応答戦略の交互化として,対戦訓練について検討する。
一方、ゲームのユニークな純粋なナッシュ均衡が存在し、確実に堅牢である。
論文 参考訳(メタデータ) (2022-10-23T03:21:01Z) - Learning Correlated Equilibria in Mean-Field Games [62.14589406821103]
我々は平均場相関と粗相関平衡の概念を発展させる。
ゲームの構造に関する仮定を必要とせず,効率よくゲーム内で学習できることが示される。
論文 参考訳(メタデータ) (2022-08-22T08:31:46Z) - On the Nash equilibrium of moment-matching GANs for stationary Gaussian
processes [2.25477613430341]
我々は、一貫したナッシュ均衡の存在は、判別器ファミリーの選択に大きく依存していることを示す。
さらに、一貫した平衡に向けた勾配降下法における局所安定性と大域収束について検討する。
論文 参考訳(メタデータ) (2022-03-14T14:30:23Z) - Learning to Compute Approximate Nash Equilibrium for Normal-form Games [15.321036952379488]
有限$n$-playerの正規形式ゲームに対して,Nash平衡を近似的に計算するための一般的なメタ学習手法を提案する。
ゲーム毎のナッシュ均衡をスクラッチから近似あるいは学習する既存の解とは異なり、メタソルバはゲームユーティリティ行列からジョイント戦略プロファイルへの写像を直接構築する。
論文 参考訳(メタデータ) (2021-08-17T07:06:46Z) - Sample-Efficient Learning of Stackelberg Equilibria in General-Sum Games [78.65798135008419]
一般的なゲームでStackelberg平衡を効率的に学習する方法は、サンプルから非常にオープンなままです。
本稿では,2プレーヤターンベース汎用ゲームにおけるStackelberg平衡のサンプル効率学習に関する理論的研究を開始する。
論文 参考訳(メタデータ) (2021-02-23T05:11:07Z) - On Information Asymmetry in Competitive Multi-Agent Reinforcement
Learning: Convergence and Optimality [78.76529463321374]
協調的でない2つのQ-ラーニングエージェントの相互作用システムについて検討する。
この情報非対称性は、集団学習の安定した結果をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:19:53Z) - No-regret learning and mixed Nash equilibria: They do not mix [64.37511607254115]
我々はFTRL(Follow-the-regularized-leader)のダイナミクスについて検討する。
厳密でないナッシュ均衡は、FTRLの下で安定して引き寄せることは不可能である。
この結果は,学習過程の結果を予測する上で重要な意味を持つ。
論文 参考訳(メタデータ) (2020-10-19T13:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。