論文の概要: Securing Equal Share: A Principled Approach for Learning Multiplayer Symmetric Games
- arxiv url: http://arxiv.org/abs/2406.04201v2
- Date: Thu, 03 Oct 2024 01:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-05 03:34:34.743637
- Title: Securing Equal Share: A Principled Approach for Learning Multiplayer Symmetric Games
- Title(参考訳): セキュアな平等共有:マルチプレイヤーシンメトリゲーム学習のための原則的アプローチ
- Authors: Jiawei Ge, Yuanhao Wang, Wenzhe Li, Chi Jin,
- Abstract要約: マルチプレイヤーゲームにおける平衡は、一意でも爆発的でもない。
本稿では,平等な共有という自然な目的に焦点をあてることで,これらの課題に対処するための最初の一歩を踏み出す。
我々は、様々な設定でほぼ同じシェアを確実に得る、非回帰学習にインスパイアされた、一連の効率的なアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 21.168085154982712
- License:
- Abstract: This paper examines multiplayer symmetric constant-sum games with more than two players in a competitive setting, including examples like Mahjong, Poker, and various board and video games. In contrast to two-player zero-sum games, equilibria in multiplayer games are neither unique nor non-exploitable, failing to provide meaningful guarantees when competing against opponents who play different equilibria or non-equilibrium strategies. This gives rise to a series of long-lasting fundamental questions in multiplayer games regarding suitable objectives, solution concepts, and principled algorithms. This paper takes an initial step towards addressing these challenges by focusing on the natural objective of equal share -- securing an expected payoff of C/n in an n-player symmetric game with a total payoff of C. We rigorously identify the theoretical conditions under which achieving an equal share is tractable and design a series of efficient algorithms, inspired by no-regret learning, that provably attain approximate equal share across various settings. Furthermore, we provide complementary lower bounds that justify the sharpness of our theoretical results. Our experimental results highlight worst-case scenarios where meta-algorithms from prior state-of-the-art systems for multiplayer games fail to secure an equal share, while our algorithm succeeds, demonstrating the effectiveness of our approach.
- Abstract(参考訳): 本稿では,Mahjong, Poker, ボードゲーム, ビデオゲームなど, 2人以上の競技者が参加するマルチプレイヤー対称定数ゲームについて検討する。
2人のプレイヤーのゼロサムゲームとは対照的に、マルチプレイヤーゲームにおける平衡はユニークでも非爆発的でもなく、異なる平衡または非平衡戦略をプレイする対戦相手に対して有意義な保証を提供することができない。
これにより、マルチプレイヤーゲームにおいて、適切な目的、解決概念、および原則付きアルゴリズムに関する一連の長い基礎的な疑問が生まれている。
本稿は, 等価共有を実現するための理論的条件を厳格に把握し, 多様な設定にまたがる近似的共有を確実に達成する, 自由学習にインスパイアされた, 一連の効率的なアルゴリズムを設計することを目的として, 等価共有の自然な目的に焦点をあてて, これらの課題に対処するための最初の一歩を踏み出した。
さらに、理論結果のシャープさを正当化する補足的下界を提供する。
実験結果は,従来のマルチプレイヤーゲームにおけるメタアルゴリズムが等価なシェアを確保するのに失敗し,アルゴリズムが成功し,我々のアプローチの有効性を実証する最悪のシナリオを浮き彫りにした。
関連論文リスト
- Imperfect-Recall Games: Equilibrium Concepts and Their Complexity [74.01381499760288]
エージェントが以前保持していた情報を忘れたとき、不完全なリコールの下で最適な意思決定を行う。
不完全なリコールを伴う広範囲形式のゲームフレームワークにおいて、マルチプレイヤー設定における平衡を求める際の計算複雑性を解析する。
論文 参考訳(メタデータ) (2024-06-23T00:27:28Z) - Leading the Pack: N-player Opponent Shaping [52.682734939786464]
我々は、複数のコプレーヤと複数のシェーピングエージェントを含む環境に、対向型シェーピング(OS)メソッドを拡張します。
多数のコプレーヤでプレイすると,OSメソッドの相対的な性能が低下し,OSメソッドが動作しない可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-19T20:01:42Z) - TiZero: Mastering Multi-Agent Football with Curriculum Learning and
Self-Play [19.98100026335148]
TiZeroは、スクラッチから学習する自己進化型マルチエージェントシステムである。
これは、Google Research Footballの環境において、これまでのシステムよりはるかに優れている。
論文 参考訳(メタデータ) (2023-02-15T08:19:18Z) - Teamwork under extreme uncertainty: AI for Pokemon ranks 33rd in the
world [0.0]
本稿では,ゲームのメカニズムを解説し,ゲーム解析を行う。
ゲームにおける2つの最大の課題は、バランスのとれたチームを維持し、不確実性の3つの源に対処することだ、という認識に基づいて、ユニークなAIアルゴリズムを提案する。
我々のAIエージェントは、これまでのすべての試みよりも大幅に向上し、世界で最も人気のある戦闘フォーマットの1つで、世界で33位まで上昇しました。
論文 参考訳(メタデータ) (2022-12-27T01:52:52Z) - A Survey of Decision Making in Adversarial Games [8.489977267389934]
ポーカー、チェス、エバダー追跡、麻薬の侵入、沿岸警備、サイバーセキュリティ、国防など多くの実践的応用において、プレイヤーは明らかに敵対的な姿勢をとる。
本稿では,対戦型ゲームに広く用いられている3つの主要ゲームモデルについて,体系的な調査を行う。
論文 参考訳(メタデータ) (2022-07-16T16:04:01Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Discovering Multi-Agent Auto-Curricula in Two-Player Zero-Sum Games [31.97631243571394]
明示的な人間設計なしに更新ルールの発見を自動化するフレームワークであるLMACを導入する。
意外なことに、人間のデザインがなくても、発見されたMARLアルゴリズムは競争力や性能が向上する。
LMAC は,例えば Kuhn Poker のトレーニングやPSRO の成績など,小型ゲームから大規模ゲームへの一般化が可能であることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:30:25Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Learning to Resolve Alliance Dilemmas in Many-Player Zero-Sum Games [22.38765498549914]
我々は多人数ゼロサムゲームの体系的な研究が人工知能研究の重要な要素であると主張している。
対称ゼロサム行列ゲームを用いて、アライアンス形成が社会的ジレンマと見なされることを示す。
我々は、強化学習をピアツーピア契約機構で強化し、アライアンスを発見・実施する方法を示す。
論文 参考訳(メタデータ) (2020-02-27T10:32:31Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。