論文の概要: Solving Continuous Mean Field Games: Deep Reinforcement Learning for Non-Stationary Dynamics
- arxiv url: http://arxiv.org/abs/2510.22158v1
- Date: Sat, 25 Oct 2025 04:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.890608
- Title: Solving Continuous Mean Field Games: Deep Reinforcement Learning for Non-Stationary Dynamics
- Title(参考訳): 連続平均場ゲームの解決:非定常ダイナミクスのための深層強化学習
- Authors: Lorenzo Magnino, Kai Shao, Zida Wu, Jiacheng Shen, Mathieu Laurière,
- Abstract要約: メアンフィールドゲーム(MFG)は、大規模マルチエージェントシステムにおけるインタラクションをモデル化するための強力なフレームワークとして登場した。
本稿では,非定常連続MFGに特化して設計された新しい深部強化学習(DRL)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.4685491639611685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mean field games (MFGs) have emerged as a powerful framework for modeling interactions in large-scale multi-agent systems. Despite recent advancements in reinforcement learning (RL) for MFGs, existing methods are typically limited to finite spaces or stationary models, hindering their applicability to real-world problems. This paper introduces a novel deep reinforcement learning (DRL) algorithm specifically designed for non-stationary continuous MFGs. The proposed approach builds upon a Fictitious Play (FP) methodology, leveraging DRL for best-response computation and supervised learning for average policy representation. Furthermore, it learns a representation of the time-dependent population distribution using a Conditional Normalizing Flow. To validate the effectiveness of our method, we evaluate it on three different examples of increasing complexity. By addressing critical limitations in scalability and density approximation, this work represents a significant advancement in applying DRL techniques to complex MFG problems, bringing the field closer to real-world multi-agent systems.
- Abstract(参考訳): メアンフィールドゲーム(MFG)は、大規模マルチエージェントシステムにおけるインタラクションをモデル化するための強力なフレームワークとして登場した。
近年のMFGの強化学習(RL)の発展にもかかわらず、既存の手法は一般に有限空間や定常モデルに限られており、実世界の問題への適用を妨げている。
本稿では,非定常連続MFGに特化して設計された新しい深部強化学習(DRL)アルゴリズムを提案する。
提案手法は, DRLを最良応答計算に利用し, 平均ポリシー表現に教師付き学習を応用したFP手法に基づいている。
さらに,条件付き正規化フローを用いて時間依存型人口分布の表現を学習する。
提案手法の有効性を検証するため,複雑性が増大する3つの異なる例を用いて評価を行った。
スケーラビリティと密度近似の限界に対処することにより、この研究は複雑なMFG問題にDRL技術を適用することの大きな進歩を示し、実世界のマルチエージェントシステムにその分野を近づける。
関連論文リスト
- Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [78.09559830840595]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は最先端のPTQ手法を実装し、包括的な評価を行う。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient [26.675822002049372]
Deep Diffusion Policy Gradient (DDiffPG)は、マルチモーダルポリシーから学習する新しいアクター批判アルゴリズムである。
DDiffPGはマルチモーダルトレーニングバッチを形成し、モード固有のQ-ラーニングを使用して、RL目的の固有の欲求を緩和する。
さらに,本手法では,学習モードを明示的に制御するために,モード固有の埋め込みにポリシーを条件付けることができる。
論文 参考訳(メタデータ) (2024-06-02T09:32:28Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Unsupervised Solution Operator Learning for Mean-Field Games via Sampling-Invariant Parametrizations [7.230928145936957]
我々はMFGソリューション演算子を学習するための新しいフレームワークを開発する。
我々のモデルはMFGインスタンスを入力として取り出し、1つのフォワードパスで解を出力する。
離散化フリーであり、高次元MFGの学習演算子に適している。
論文 参考訳(メタデータ) (2024-01-27T19:07:49Z) - Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Adversarial Inverse Reinforcement Learning for Mean Field Games [17.392418397388823]
平均場ゲーム(MFG)は、大規模マルチエージェントシステムをモデル化するための数学的に抽出可能なフレームワークを提供する。
本稿では,実証における不確実性に対処可能な新しいフレームワーク,Mean-Field Adversarial IRL(MF-AIRL)を提案する。
論文 参考訳(メタデータ) (2021-04-29T21:03:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。