論文の概要: Neural Mean-Field Games: Extending Mean-Field Game Theory with Neural Stochastic Differential Equations
- arxiv url: http://arxiv.org/abs/2504.13228v3
- Date: Fri, 17 Oct 2025 07:40:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 13:49:08.606997
- Title: Neural Mean-Field Games: Extending Mean-Field Game Theory with Neural Stochastic Differential Equations
- Title(参考訳): ニューラル平均場ゲーム:ニューラル確率微分方程式による平均場ゲーム理論の拡張
- Authors: Anna C. M. Thöni, Yoram Bachrach, Tal Kachman,
- Abstract要約: 平均場ゲーム理論は、プレイヤーの多数から無限の人口のためにモデルに難解な近似ゲームに依存する。
平均場理論と深層学習を組み合わせたニューラルディファレンシャル方程式の形でのニューラル平均場ゲームを導入する。
このモデルはデータ駆動で軽量であり、平均場理論だけでは捉え難い広範な戦略的相互作用を学習することができる。
- 参考スコア(独自算出の注目度): 4.765409175050468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mean-field game theory relies on approximating games that are intractible to model due to a very large to infinite population of players. While these kinds of games can be solved analytically via the associated system of partial derivatives, this approach is not model-free, can lead to the loss of the existence or uniqueness of solutions, and may suffer from modelling bias. To reduce the dependency between the model and the game, we introduce neural mean-field games: a combination of mean-field game theory and deep learning in the form of neural stochastic differential equations. The resulting model is data-driven, lightweight, and can learn extensive strategic interactions that are hard to capture using mean-field theory alone. In addition, the model is based on automatic differentiation, making it more robust and objective than approaches based on finite differences. We highlight the efficiency and flexibility of our approach by solving two mean-field games that vary in their complexity, observability, and the presence of noise. Lastly, we illustrate the model's robustness by simulating viral dynamics based on real-world data. Here, we demonstrate that the model's ability to learn from real-world data helps to accurately model the evolution of an epidemic outbreak. Using these results, we show that the model is flexible, generalizable, and requires few observations to learn the distribution underlying the data.
- Abstract(参考訳): 平均場ゲーム理論は、プレイヤーの非常に大きくて無限の人口のためにモデルに難解な近似ゲームに依存している。
この種のゲームは部分微分の関連システムを通じて解析的に解決できるが、このアプローチはモデル自由ではなく、解の存在や一意性を損なう可能性があり、モデル化バイアスに悩まされる。
モデルとゲーム間の依存性を低減するために,平均場ゲーム理論とディープラーニングを組み合わせたニューラルな確率微分方程式を導入する。
得られたモデルはデータ駆動で軽量であり、平均場理論だけでは捉え難い広範な戦略的相互作用を学習することができる。
さらに、モデルは自動微分に基づいており、有限差分に基づくアプローチよりも頑健で客観的である。
難易度,可観測性,ノイズの有無によって異なる2つの平均場ゲームを解くことで,アプローチの効率性と柔軟性を強調した。
最後に、実世界のデータに基づいてバイラルダイナミクスをシミュレートすることで、モデルのロバスト性を説明する。
ここでは、実際のデータから学習するモデルの能力が、流行の発生の進化を正確にモデル化するのに役立つことを実証する。
これらの結果から、モデルが柔軟で、一般化可能であり、データの基礎となる分布を学習するためにはほとんど観測を必要としないことを示す。
関連論文リスト
- A Complete Decomposition of KL Error using Refined Information and Mode Interaction Selection [11.994525728378603]
我々は高次モード相互作用に着目したログ線形モデルの古典的定式化を再考する。
学習した分布は、実際に利用可能な有限量のデータをより効率的に利用することができる。
論文 参考訳(メタデータ) (2024-10-15T18:08:32Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Evaluation of Differentially Constrained Motion Models for Graph-Based
Trajectory Prediction [1.1947990549568765]
本研究では,予測課題に対する数値解法と組み合わせた各種動作モデルの性能について検討する。
この研究は、低階積分子モデルのようなより単純なモデルは、正確な予測を達成するために、より複雑な、例えばキネマティックモデルよりも好まれることを示している。
論文 参考訳(メタデータ) (2023-04-11T10:15:20Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Diffusion models as plug-and-play priors [98.16404662526101]
我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
論文 参考訳(メタデータ) (2022-06-17T21:11:36Z) - Discrepancy Modeling Framework: Learning missing physics, modeling
systematic residuals, and disambiguating between deterministic and random
effects [4.459306403129608]
現代の力学系では、モデルと測定の相違は量子化の低下につながる。
本稿では,欠落した物理を識別し,モデル-測定ミスマッチを解消するための不一致モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-10T05:37:24Z) - Approximate Latent Force Model Inference [1.3927943269211591]
潜在力モデルは、動的システムにおける推論のための純粋にデータ駆動ツールの解釈可能な代替手段を提供する。
ニューラルネットワークのアプローチは、モデルを数千のインスタンスにスケールし、高速で分散的な計算を可能にします。
論文 参考訳(メタデータ) (2021-09-24T09:55:00Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - A Probabilistic State Space Model for Joint Inference from Differential
Equations and Data [23.449725313605835]
ベイズフィルタを用いて解過程を直接句する常微分方程式 (odes) の解法の新しいクラスを示す。
その後、拡張カルマンフィルタの単一の線形複雑化パスにおいて、潜力とODE溶液のベイズ推定を近似することができるようになる。
本研究では,covid-19流行データに基づく非パラメトリックsirdモデルを訓練することにより,アルゴリズムの表現力と性能を示す。
論文 参考訳(メタデータ) (2021-03-18T10:36:09Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。