論文の概要: Reinforcement Learning for SBM Graphon Games with Re-Sampling
- arxiv url: http://arxiv.org/abs/2310.16326v1
- Date: Wed, 25 Oct 2023 03:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:56:59.735947
- Title: Reinforcement Learning for SBM Graphon Games with Re-Sampling
- Title(参考訳): 再サンプリングによるSBMグラフィックゲームの強化学習
- Authors: Peihan Huo, Oscar Peralta, Junyu Guo, Qiaomin Xie, Andreea Minca
- Abstract要約: 我々は,リサンプリング(GGR-S)モデルを用いたグラフゲームに基づく新しい学習フレームワークを開発した。
我々はGGR-Sのダイナミクスを解析し,MP-MFGのダイナミックスへの収束を確立する。
- 参考スコア(独自算出の注目度): 4.6648272529750985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Mean-Field approximation is a tractable approach for studying large
population dynamics. However, its assumption on homogeneity and universal
connections among all agents limits its applicability in many real-world
scenarios. Multi-Population Mean-Field Game (MP-MFG) models have been
introduced in the literature to address these limitations. When the underlying
Stochastic Block Model is known, we show that a Policy Mirror Ascent algorithm
finds the MP-MFG Nash Equilibrium. In more realistic scenarios where the block
model is unknown, we propose a re-sampling scheme from a graphon integrated
with the finite N-player MP-MFG model. We develop a novel learning framework
based on a Graphon Game with Re-Sampling (GGR-S) model, which captures the
complex network structures of agents' connections. We analyze GGR-S dynamics
and establish the convergence to dynamics of MP-MFG. Leveraging this result, we
propose an efficient sample-based N-player Reinforcement Learning algorithm for
GGR-S without population manipulation, and provide a rigorous convergence
analysis with finite sample guarantee.
- Abstract(参考訳): 平均場近似は、大きな人口動態を研究するための扱いやすいアプローチである。
しかしながら、すべてのエージェント間の均質性と普遍的な接続に関する仮定は、多くの実世界のシナリオでその適用性を制限する。
MP-MFG(Multi-Population Mean-Field Game)モデルはこれらの制限に対処するために文献に導入されている。
基礎となる確率ブロックモデルが知られているとき、ポリシミラー・アセントアルゴリズムがMP-MFGナッシュ平衡を見つけることを示す。
ブロックモデルが未知のより現実的なシナリオでは、有限N-プレーヤMP-MFGモデルと統合されたグラフトンからの再サンプリングスキームを提案する。
我々はエージェントの接続の複雑なネットワーク構造をキャプチャする再サンプリング(GGR-S)モデルを用いたグラフゲームに基づく新しい学習フレームワークを開発する。
我々はGGR-Sのダイナミクスを分析し,MP-MFGのダイナミックスへの収束を確立する。
そこで本研究では,GGR-Sの集団操作を伴わない効率的なサンプルベースN-player Reinforcement Learningアルゴリズムを提案し,有限標本保証を用いた厳密な収束解析を行う。
関連論文リスト
- Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - On the Statistical Efficiency of Mean-Field Reinforcement Learning with General Function Approximation [20.66437196305357]
平均フィールド制御(MFC)および平均フィールドゲーム(MFG)における強化学習の基本統計的効率を一般モデルに基づく関数近似を用いて検討する。
我々は平均場モデルクラス固有の複雑さを特徴付ける平均場モデルベースエルダー次元(MF-MBED)という新しい概念を導入する。
論文 参考訳(メタデータ) (2023-05-18T20:00:04Z) - Joint Graph Learning and Model Fitting in Laplacian Regularized
Stratified Models [5.933030735757292]
ラプラシア正規化成層モデル(Laplacian regularized Stratified Model、LRSM)は、サブプロブレムの明示的または暗黙的なネットワーク構造を利用するモデルである。
本稿では,LRSMにおけるグラフ重みの重要性と感度を示し,その感度が任意に大きいことを示す。
本稿では,1つの最適化問題を解くことで,モデルパラメータを適合させながらグラフを共同学習する汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T06:06:29Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - Soft Hierarchical Graph Recurrent Networks for Many-Agent Partially
Observable Environments [9.067091068256747]
本稿では,階層型グラフ再帰ネットワーク(HGRN)と呼ばれる新しいネットワーク構造を提案する。
以上の技術に基づいて,Soft-HGRNと呼ばれる値に基づくMADRLアルゴリズムと,SAC-HRGNというアクタクリティカルな変種を提案する。
論文 参考訳(メタデータ) (2021-09-05T09:51:25Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。