論文の概要: Stability of Multi-Agent Learning: Convergence in Network Games with
Many Players
- arxiv url: http://arxiv.org/abs/2307.13922v1
- Date: Wed, 26 Jul 2023 02:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:48:34.285422
- Title: Stability of Multi-Agent Learning: Convergence in Network Games with
Many Players
- Title(参考訳): マルチエージェント学習の安定性:多くのプレイヤーによるネットワークゲームにおける収束性
- Authors: Aamal Hussain, Dan Leonte, Francesco Belardinelli and Georgios
Piliouras
- Abstract要約: 我々はQ-Learning dynamicsについて研究し、ネットワークゲームにおいて力学が一意平衡に収束するのに十分な条件を決定する。
この結果を代表的ネットワークゲームで評価し、適切なネットワーク条件下では、任意の数のエージェントで安定した学習ダイナミクスを実現できることを示す。
- 参考スコア(独自算出の注目度): 34.33866138792406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The behaviour of multi-agent learning in many player games has been shown to
display complex dynamics outside of restrictive examples such as network
zero-sum games. In addition, it has been shown that convergent behaviour is
less likely to occur as the number of players increase. To make progress in
resolving this problem, we study Q-Learning dynamics and determine a sufficient
condition for the dynamics to converge to a unique equilibrium in any network
game. We find that this condition depends on the nature of pairwise
interactions and on the network structure, but is explicitly independent of the
total number of agents in the game. We evaluate this result on a number of
representative network games and show that, under suitable network conditions,
stable learning dynamics can be achieved with an arbitrary number of agents.
- Abstract(参考訳): 多くのプレイヤーゲームにおけるマルチエージェント学習の振る舞いは、ネットワークゼロサムゲームのような制限的な例以外で複雑なダイナミクスを示すことが示されている。
また,プレイヤー数の増加に伴い,収束行動は生じにくいことが示されている。
この問題を解くために,q-learning dynamics について検討し,ネットワークゲームにおいてダイナミクスが一意な均衡に収束するのに十分な条件を決定する。
この条件は、ペアワイズ相互作用の性質とネットワーク構造に依存するが、ゲーム内のエージェントの総数とは明確に独立している。
この結果を代表的ネットワークゲームで評価し、適切なネットワーク条件下では、任意の数のエージェントで安定した学習ダイナミクスを実現できることを示す。
関連論文リスト
- Stability of Multi-Agent Learning in Competitive Networks: Delaying the
Onset of Chaos [9.220952628571812]
競争的ネットワークゲームにおけるマルチエージェント学習の振る舞いは、ゼロサムゲームの文脈内でしばしば研究される。
マルチエージェント学習における探索と活用の一般的なモデルであるQ-Learning dynamicsについて検討する。
また,Q-Learningの安定性はエージェントの総数ではなくネットワーク接続にのみ依存していることが判明した。
論文 参考訳(メタデータ) (2023-12-19T08:41:06Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Logit-Q Dynamics for Efficient Learning in Stochastic Teams [1.3927943269211591]
ゲームにおける効率的な学習のための新しいロジット-Qダイナミクスのファミリーを提示する。
未知のダイナミックスを持つチームでは,ロジット-Qのダイナミクスが(ほぼ)効率のよい平衡に到達できることが示される。
論文 参考訳(メタデータ) (2023-02-20T07:07:25Z) - On the Convergence of No-Regret Learning Dynamics in Time-Varying Games [89.96815099996132]
時間変化ゲームにおける楽観的勾配降下(OGD)の収束を特徴付ける。
我々のフレームワークは、ゼロサムゲームにおけるOGDの平衡ギャップに対して鋭い収束境界をもたらす。
また,静的ゲームにおける動的後悔の保証に関する新たな洞察も提供する。
論文 参考訳(メタデータ) (2023-01-26T17:25:45Z) - Asymptotic Convergence and Performance of Multi-Agent Q-Learning
Dynamics [38.5932141555258]
一般的な強化学習アルゴリズムであるスムーズなQ-Learningのダイナミクスについて検討する。
我々は、Qラーニング力学が任意のゲームにおいて一意の平衡に収束することが保証されるような探索速度の十分条件を示す。
論文 参考訳(メタデータ) (2023-01-23T18:39:11Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Independent Learning in Stochastic Games [16.505046191280634]
動的環境におけるマルチエージェント学習のためのゲームモデルを提案する。
ゲームのためのシンプルで独立した学習力学の開発に焦点をあてる。
我々は最近提案したゼロサムゲームにおける収束を保証する単純かつ独立な学習力学について述べる。
論文 参考訳(メタデータ) (2021-11-23T09:27:20Z) - Exploration-Exploitation in Multi-Agent Competition: Convergence with
Bounded Rationality [21.94743452608215]
本研究では,ゲーム報酬と探索費用のバランスを捉えたプロトタイプ学習モデルであるスムーズQ-ラーニングについて検討する。
Q-ラーニングは常に、有界な有理性の下でのゲームに対する標準的な解概念である一意の量子-応答平衡(QRE)に収束することを示す。
論文 参考訳(メタデータ) (2021-06-24T11:43:38Z) - From Motor Control to Team Play in Simulated Humanoid Football [56.86144022071756]
我々は、現実的な仮想環境でサッカーをするために、物理的にシミュレートされたヒューマノイドアバターのチームを訓練する。
一連の段階において、プレイヤーはまず、現実的な人間のような動きを実行するために、完全に関節化された身体を制御することを学習する。
その後、ドリブルやシューティングといった中級のサッカーのスキルを身につける。
最後に、彼らは他の人を意識し、チームとしてプレーし、ミリ秒のタイムスケールで低レベルのモーターコントロールのギャップを埋める。
論文 参考訳(メタデータ) (2021-05-25T20:17:10Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。