論文の概要: Fictitious Play with Maximin Initialization
- arxiv url: http://arxiv.org/abs/2203.10774v1
- Date: Mon, 21 Mar 2022 07:34:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:49:55.214821
- Title: Fictitious Play with Maximin Initialization
- Title(参考訳): 最大初期化を伴う架空の遊び
- Authors: Sam Ganzfried
- Abstract要約: 架空のプレイは、マルチプレイヤーゲームにおけるナッシュ均衡戦略のための最も正確なスケーラブルなアルゴリズムである。
本研究では,初期戦略の度合いを考慮すれば,架空の遊びの平衡近似誤差を著しく低減できることを示す。
- 参考スコア(独自算出の注目度): 1.7132914341329848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fictitious play has recently emerged as the most accurate scalable algorithm
for approximating Nash equilibrium strategies in multiplayer games. We show
that the degree of equilibrium approximation error of fictitious play can be
significantly reduced by carefully selecting the initial strategies. We present
several new procedures for strategy initialization and compare them to the
classic approach, which initializes all pure strategies to have equal
probability. The best-performing approach, called maximin, solves a nonconvex
quadratic program to compute initial strategies and results in a nearly 75%
reduction in approximation error compared to the classic approach when 5
initializations are used.
- Abstract(参考訳): 近年,マルチプレイヤーゲームにおけるナッシュ均衡戦略を近似する最も正確なスケーラブルアルゴリズムとして,架空のプレイが登場している。
本研究では,初期戦略を慎重に選択することで,架空の遊びの平衡近似誤差を著しく低減できることを示す。
戦略初期化のための新しい手順をいくつか提示し、これらを古典的アプローチと比較し、全ての純粋な戦略を同じ確率で初期化する。
マクシミンと呼ばれる最良の性能のアプローチは、初期戦略を計算するために非凸二次プログラムを解き、5つの初期化を使用する場合に比べて近似誤差が75%近く減少する。
関連論文リスト
- Decoding Game: On Minimax Optimality of Heuristic Text Generation Strategies [7.641996822987559]
我々は,テキスト生成をストラテジストとネイチャーの2プレイヤーゼロサムゲームとして再定義する,包括的な理論的枠組みであるデコードゲームを提案する。
逆数自然は可能性に対して暗黙の正則化を課し、トラルニケーション正規化法は、この正則化の下での最適戦略の第一次近似である。
論文 参考訳(メタデータ) (2024-10-04T23:18:27Z) - Landscape-Aware Growing: The Power of a Little LAG [49.897766925371485]
成長戦略のプールから最適な成長戦略をどのように選択するかという課題について検討する。
ランドスケープ・アウェア・グロース(LAG)と呼ぶ早期学習力学に基づく代替視点を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:38:57Z) - ApproxED: Approximate exploitability descent via learned best responses [61.17702187957206]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - No-Regret Dynamics in the Fenchel Game: A Unified Framework for
Algorithmic Convex Optimization [20.718016474717196]
我々は,非regretゲームダイナミクスを用いた凸最適化問題を解くためのアルゴリズムフレームワークを開発した。
これらの戦略の一般的な選択は、いわゆるno-regret学習アルゴリズムである。
コンベックス最適化のための古典的な一階法の多くは、我々のフレームワークの特別なケースとして解釈できることを示す。
論文 参考訳(メタデータ) (2021-11-22T16:10:18Z) - Provably Efficient Policy Gradient Methods for Two-Player Zero-Sum
Markov Games [95.70078702838654]
本論文では,自然政策グラディエントアルゴリズムの自然拡張について検討する。
我々は,サンプル数,反復数,集中係数,近似誤差の観点から,アルゴリズムの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2021-02-17T17:49:57Z) - Learning to Initialize Gradient Descent Using Gradient Descent [21.02474345607079]
非最適化問題は解決が難しい。
本研究では,手作りアルゴリズムの簡易な代替として,ランダムアルゴリズムよりも優れた学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-22T16:23:36Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Efficient Competitive Self-Play Policy Optimization [20.023522000925094]
対戦型ゼロサムゲームにおける対戦型自己演奏強化学習のための新しいアルゴリズムフレームワークを提案する。
本手法は,複数のエージェントを同時に訓練し,単純な対戦ルールに基づいて知的に互いに相手として取り合う。
我々は,このアルゴリズムが凸凹ゲームにおいて高い確率で近似平衡に収束することを理論的に証明する。
論文 参考訳(メタデータ) (2020-09-13T21:01:38Z) - Beyond UCB: Optimal and Efficient Contextual Bandits with Regression
Oracles [112.89548995091182]
我々は、文脈的帯域幅からオンライン回帰への、初めての普遍的で最適な削減を提供する。
我々のアルゴリズムは、実現可能性以上の分布仮定は必要とせず、コンテキストが逆選択された場合でも機能する。
論文 参考訳(メタデータ) (2020-02-12T11:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。