論文の概要: Modelling Mean-Field Games with Neural Ordinary Differential Equations
- arxiv url: http://arxiv.org/abs/2504.13228v2
- Date: Wed, 23 Apr 2025 07:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.592857
- Title: Modelling Mean-Field Games with Neural Ordinary Differential Equations
- Title(参考訳): ニューラル正規微分方程式を用いた平均場ゲームモデリング
- Authors: Anna C. M. Thöni, Yoram Bachrach, Tal Kachman,
- Abstract要約: 平均場ゲーム理論は、そうでなければモデル化が難しかったであろう近似ゲームに依存している。
平均場理論と深層学習をニューラル常微分方程式の形で組み合わせる。
モデルが柔軟で軽量であり、データの基礎となる分布を学習するためにはほとんど観察を必要としていないことを示す。
- 参考スコア(独自算出の注目度): 7.260270659917573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mean-field game theory relies on approximating games that would otherwise have been intractable to model. While the games can be solved analytically via the associated system of partial derivatives, this approach is not model-free, can lead to the loss of the existence or uniqueness of solutions and may suffer from modelling bias. To reduce the dependency between the model and the game, we combine mean-field game theory with deep learning in the form of neural ordinary differential equations. The resulting model is data-driven, lightweight and can learn extensive strategic interactions that are hard to capture using mean-field theory alone. In addition, the model is based on automatic differentiation, making it more robust and objective than approaches based on finite differences. We highlight the efficiency and flexibility of our approach by solving three mean-field games that vary in their complexity, observability and the presence of noise. Using these results, we show that the model is flexible, lightweight and requires few observations to learn the distribution underlying the data.
- Abstract(参考訳): 平均場ゲーム理論は、そうでなければモデル化が難しかったであろう近似ゲームに依存している。
ゲームは部分微分の関連システムを通じて解析的に解決できるが、このアプローチはモデルのないものではなく、解の存在や一意性を喪失させ、モデル化バイアスに悩まされる可能性がある。
モデルとゲーム間の依存性を低減するため、平均場ゲーム理論とディープラーニングをニューラル常微分方程式の形で組み合わせる。
得られたモデルはデータ駆動で軽量であり、平均場理論だけでは捉え難い広範な戦略的相互作用を学習することができる。
さらに、モデルは自動微分に基づいており、有限差分に基づくアプローチよりも頑健で客観的である。
我々は,難易度,可観測性,ノイズの有無によって異なる3つの平均場ゲームを解くことで,アプローチの効率性と柔軟性を強調した。
これらの結果から, モデルが柔軟で軽量であり, 基礎となる分布を学習するためには, 観測をほとんど必要としないことがわかった。
関連論文リスト
- A Complete Decomposition of KL Error using Refined Information and Mode Interaction Selection [11.994525728378603]
我々は高次モード相互作用に着目したログ線形モデルの古典的定式化を再考する。
学習した分布は、実際に利用可能な有限量のデータをより効率的に利用することができる。
論文 参考訳(メタデータ) (2024-10-15T18:08:32Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Evaluation of Differentially Constrained Motion Models for Graph-Based
Trajectory Prediction [1.1947990549568765]
本研究では,予測課題に対する数値解法と組み合わせた各種動作モデルの性能について検討する。
この研究は、低階積分子モデルのようなより単純なモデルは、正確な予測を達成するために、より複雑な、例えばキネマティックモデルよりも好まれることを示している。
論文 参考訳(メタデータ) (2023-04-11T10:15:20Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Diffusion models as plug-and-play priors [98.16404662526101]
我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
論文 参考訳(メタデータ) (2022-06-17T21:11:36Z) - Discrepancy Modeling Framework: Learning missing physics, modeling
systematic residuals, and disambiguating between deterministic and random
effects [4.459306403129608]
現代の力学系では、モデルと測定の相違は量子化の低下につながる。
本稿では,欠落した物理を識別し,モデル-測定ミスマッチを解消するための不一致モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-10T05:37:24Z) - Approximate Latent Force Model Inference [1.3927943269211591]
潜在力モデルは、動的システムにおける推論のための純粋にデータ駆動ツールの解釈可能な代替手段を提供する。
ニューラルネットワークのアプローチは、モデルを数千のインスタンスにスケールし、高速で分散的な計算を可能にします。
論文 参考訳(メタデータ) (2021-09-24T09:55:00Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - A Probabilistic State Space Model for Joint Inference from Differential
Equations and Data [23.449725313605835]
ベイズフィルタを用いて解過程を直接句する常微分方程式 (odes) の解法の新しいクラスを示す。
その後、拡張カルマンフィルタの単一の線形複雑化パスにおいて、潜力とODE溶液のベイズ推定を近似することができるようになる。
本研究では,covid-19流行データに基づく非パラメトリックsirdモデルを訓練することにより,アルゴリズムの表現力と性能を示す。
論文 参考訳(メタデータ) (2021-03-18T10:36:09Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。