論文の概要: Learning Graphon Mean Field Games and Approximate Nash Equilibria
- arxiv url: http://arxiv.org/abs/2112.01280v1
- Date: Mon, 29 Nov 2021 16:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 17:30:53.553077
- Title: Learning Graphon Mean Field Games and Approximate Nash Equilibria
- Title(参考訳): グラフィオン平均場ゲームと近似ナッシュ平衡の学習
- Authors: Kai Cui, Heinz Koeppl
- Abstract要約: 本稿では,弱い相互作用を持つグラノン平均場ゲームに対して,離散時間による新たな定式化を提案する。
理論的には、グラノン平均場解の広範かつ厳密な存在と近似特性を与える。
我々は,多くのエージェントを持つ非実現不可能な大密度グラフゲームにおいて,可塑性近似ナッシュ平衡を得ることに成功した。
- 参考スコア(独自算出の注目度): 33.77849245250632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances at the intersection of dense large graph limits and mean
field games have begun to enable the scalable analysis of a broad class of
dynamical sequential games with large numbers of agents. So far, results have
been largely limited to graphon mean field systems with continuous-time
diffusive or jump dynamics, typically without control and with little focus on
computational methods. We propose a novel discrete-time formulation for graphon
mean field games as the limit of non-linear dense graph Markov games with weak
interaction. On the theoretical side, we give extensive and rigorous existence
and approximation properties of the graphon mean field solution in sufficiently
large systems. On the practical side, we provide general learning schemes for
graphon mean field equilibria by either introducing agent equivalence classes
or reformulating the graphon mean field system as a classical mean field
system. By repeatedly finding a regularized optimal control solution and its
generated mean field, we successfully obtain plausible approximate Nash
equilibria in otherwise infeasible large dense graph games with many agents.
Empirically, we are able to demonstrate on a number of examples that the
finite-agent behavior comes increasingly close to the mean field behavior for
our computed equilibria as the graph or system size grows, verifying our
theory. More generally, we successfully apply policy gradient reinforcement
learning in conjunction with sequential Monte Carlo methods.
- Abstract(参考訳): 密集した大規模グラフ限界と平均フィールドゲームとの交点における最近の進歩は、多数のエージェントを持つ幅広いダイナミックシーケンシャルゲームのスケーラブルな分析を可能にし始めた。
これまでの結果は主に、連続時間微分あるいはジャンプダイナミクスを持つグラフェン平均場システムに限られており、通常は制御がなく、計算手法にほとんど焦点を合わせていない。
弱い相互作用を持つ非線型グラフグラフマルコフゲームの極限として,グラノン平均場ゲームに対する離散時間の新定式化を提案する。
理論的には、十分大きな系におけるグラフェン平均場解の広範囲で厳密な存在と近似性を与える。
実践的には,エージェント等価クラスを導入するか,あるいは古典的な平均場システムとしてgraphon平均場システムを再構成することにより,graphon平均場平衡のための一般的な学習スキームを提供する。
正規化最適制御解とその生成平均場を反復的に求めることにより,多数のエージェントを持つ非可逆大密グラフゲームにおいて,可算近似ナッシュ平衡を得ることに成功した。
経験的に、グラフやシステムサイズが大きくなるにつれて、有限エージェントの挙動が計算された平衡の平均場挙動に近づき、理論が検証されることを実証することができる。
より一般に,逐次モンテカルロ法を併用した政策勾配強化学習を成功させた。
関連論文リスト
- Graphon Mean Field Games with a Representative Player: Analysis and Learning Algorithm [14.647775453098513]
軽度の仮定でグラノン平衡の存在と特異性を証明し、この平衡を用いてネットワーク上の有限プレイヤーゲームに対する近似解を構築することができることを示す。
オンラインのオラクルフリー学習アルゴリズムは平衡を数値的に解くために開発され、その収束のためにサンプル複雑性解析が提供される。
論文 参考訳(メタデータ) (2024-05-08T04:44:16Z) - A Deep Learning Method for Optimal Investment Under Relative Performance Criteria Among Heterogeneous Agents [2.330509865741341]
グラフゲームは、重み付けされた相互作用グラフを通して相互作用する多くのプレイヤーとゲームを研究するために導入された。
本稿では,相対的な性能基準下での最適投資を目的としたグラフゲームに着目し,ディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-12T01:40:31Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Beyond spectral gap (extended): The role of the topology in
decentralized learning [58.48291921602417]
機械学習モデルのデータ並列最適化では、労働者はモデルの推定値を改善するために協力する。
現在の理論では、コラボレーションはトレーニング単独よりも学習率が大きいことを説明していない。
本稿では,疎結合分散最適化の正確な図面を描くことを目的とする。
論文 参考訳(メタデータ) (2023-01-05T16:53:38Z) - Learning Sparse Graphon Mean Field Games [26.405495663998828]
グラフィオン平均フィールドゲーム(GMFG)は、他の方法では難解なMARL問題のスケーラブルな解析を可能にする。
本稿では,グラフ理論的概念である$Lp$Graphons を利用する LPGMFGs という,GMFGs の新たな定式化を提案する。
これは、様々な応用領域で実証的に観測され、標準のグラモンでは捉えられないパワーローネットワークを含む。
論文 参考訳(メタデータ) (2022-09-08T15:35:42Z) - Beyond spectral gap: The role of the topology in decentralized learning [58.48291921602417]
機械学習モデルのデータ並列最適化では、労働者はモデルの推定値を改善するために協力する。
本稿では、労働者が同じデータ分散を共有するとき、疎結合な分散最適化の正確な図面を描くことを目的とする。
我々の理論は深層学習における経験的観察と一致し、異なるグラフトポロジーの相対的メリットを正確に記述する。
論文 参考訳(メタデータ) (2022-06-07T08:19:06Z) - Hypergraphon Mean Field Games [27.56570458658299]
平均場ゲーム理論を用いて,大規模マルチエージェント力学系をモデル化する手法を提案する。
非線形で弱い相互作用を持つ動的エージェントの大規模システムに対する制限記述を得る。
理論面では、結果のハイパーグラフ平均場ゲーム(英語版)のしっかりとした基礎性を証明する。
適用面では、ハイパーグラフ平均場平衡を計算するために数値および学習アルゴリズムを拡張する。
論文 参考訳(メタデータ) (2022-03-30T11:57:16Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Approximating Nash Equilibrium in Random Graphical Games [3.42658286826597]
マルチエージェントゲームにおけるナッシュ均衡は、ゲーム理論とコンピュータ科学のインターフェイスにおける長年の課題である。
確率の高い辺密度のポリ(k, 1/epsilon, ln(N))$より大きいランダムグラフ上で、ポリマトリクスゲームのエプシロン近似ナッシュ平衡を計算するための準ポリリノミカル時間近似スキーム(QPTAS)を提供する。
同じランタイムで、エプシロン近似ナッシュ均衡を計算することができ、エプシロン近似はゲームのナッシュ均衡の最大社会福祉を達成できる。
論文 参考訳(メタデータ) (2021-12-07T01:40:20Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。