論文の概要: Deep Learning for Mean Field Games with non-separable Hamiltonians
- arxiv url: http://arxiv.org/abs/2301.02877v1
- Date: Sat, 7 Jan 2023 15:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:58:37.141080
- Title: Deep Learning for Mean Field Games with non-separable Hamiltonians
- Title(参考訳): 非分離ハミルトン型平均場ゲームのためのディープラーニング
- Authors: Mouhcine Assouli and Badr Missaoui
- Abstract要約: 本稿では,高次元平均場ゲーム(MFG)の解法を提案する。
2つのニューラルネットワークを用いて、MFGシステムの未知の解とフォワードバック条件を近似する。
提案手法は,少数のイテレーションでも効率的であり,最大300次元の処理を単一層で行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a new method based on Deep Galerkin Methods (DGMs) for
solving high-dimensional stochastic Mean Field Games (MFGs). We achieve this by
using two neural networks to approximate the unknown solutions of the MFG
system and forward-backward conditions. Our method is efficient, even with a
small number of iterations, and is capable of handling up to 300 dimensions
with a single layer, which makes it faster than other approaches. In contrast,
methods based on Generative Adversarial Networks (GANs) cannot solve MFGs with
non-separable Hamiltonians. We demonstrate the effectiveness of our approach by
applying it to a traffic flow problem, which was previously solved using the
Newton iteration method only in the deterministic case. We compare the results
of our method to analytical solutions and previous approaches, showing its
efficiency. We also prove the convergence of our neural network approximation
with a single hidden layer using the universal approximation theorem.
- Abstract(参考訳): 本稿では,高次元確率平均場ゲーム (MFG) の解法として,Deep Galerkin Methods (DGM) に基づく新しい手法を提案する。
本研究では,2つのニューラルネットワークを用いて,mfgシステムの未知解と前方逆向き条件を近似する。
提案手法は,少数のイテレーションであっても効率が良く,最大300次元を単一層で処理できるため,他の手法よりも高速である。
対照的に、GAN(Generative Adversarial Networks)に基づく手法は、非分離ハミルトニアンのMFGを解くことはできない。
提案手法は,ニュートン反復法を用いて決定論的にのみ解いたトラヒックフロー問題に適用することにより,本手法の有効性を実証する。
本手法の結果を分析解と従来の手法と比較し,その効率を示す。
また,普遍近似定理を用いて,単一の隠れ層によるニューラルネットワーク近似の収束を証明した。
関連論文リスト
- Pushing the Limits of Large Language Model Quantization via the Linearity Theorem [71.3332971315821]
本稿では,階層的$ell$再構成誤差と量子化によるモデルパープレキシティ増加との直接的な関係を確立する「線形定理」を提案する。
この知見は,(1)アダマール回転とHIGGSと呼ばれるMSE最適格子を用いた単純なデータフリーLCM量子化法,(2)非一様層ごとの量子化レベルを求める問題に対する最適解の2つの新しい応用を可能にする。
論文 参考訳(メタデータ) (2024-11-26T15:35:44Z) - Deep Backward and Galerkin Methods for the Finite State Master Equation [12.570464662548787]
本稿では,有限状態平均場ゲームにおけるマスター方程式の解法として,2つのニューラルネットワーク手法を提案し,解析する。
アルゴリズムの損失関数を任意に小さくし、逆に損失が小さい場合、ニューラルネットワークはマスター方程式の解をよく近似する。
論文 参考訳(メタデータ) (2024-03-08T01:12:11Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - $r-$Adaptive Deep Learning Method for Solving Partial Differential
Equations [0.685316573653194]
本稿では,Deep Neural Network を用いて部分微分方程式を解くための$r-$adaptiveアルゴリズムを提案する。
提案手法は, テンソル積メッシュに制限され, 境界ノードの位置を1次元で最適化し, そこから2次元または3次元メッシュを構築する。
論文 参考訳(メタデータ) (2022-10-19T21:38:46Z) - Conjugate Gradient Method for Generative Adversarial Networks [0.0]
深層ニューラルネットワークモデルの密度関数と密度関数のJensen-Shannon分散を計算することは不可能である。
GAN(Generative Adversarial Network)は、この問題をジェネレータと識別器という2つのモデルで識別する問題として定式化することができる。
本稿では,GANの局所的なナッシュ平衡問題の解法として共役勾配法を提案する。
論文 参考訳(メタデータ) (2022-03-28T04:44:45Z) - Scalable Deep Reinforcement Learning Algorithms for Mean Field Games [60.550128966505625]
平均フィールドゲーム (MFGs) は、非常に多くの戦略エージェントを持つゲームを効率的に近似するために導入された。
近年,モデルフリー強化学習(RL)手法を用いて,MFGの学習均衡の課題が活発化している。
MFGを解くための既存のアルゴリズムは戦略や$q$-valuesのような近似量の混合を必要とする。
本稿では,この欠点に対処する2つの手法を提案する。まず,歴史データの蒸留からニューラルネットワークへの混合戦略を学習し,Factitious Playアルゴリズムに適用する。
2つ目はオンライン混合方式である。
論文 参考訳(メタデータ) (2022-03-22T18:10:32Z) - A Mini-Block Natural Gradient Method for Deep Neural Networks [12.48022619079224]
我々は、近似自然勾配法、ミニブロックフィッシャー(MBF)の収束性を提案し、解析する。
提案手法では,一般化の並列性を利用して,各層内の多数の行列を効率的に処理する。
論文 参考訳(メタデータ) (2022-02-08T20:01:48Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Scaling Up Bayesian Uncertainty Quantification for Inverse Problems
using Deep Neural Networks [2.455468619225742]
本稿では,エミュレーションフェーズのためのディープニューラルネットワーク(DNN)モデルに基づくベイズ推論のための新しいCESアプローチを提案する。
結果として得られるアルゴリズムは、計算効率が向上するだけでなく、トレーニングセットに対する感度も低下する。
全体として,提案手法はEmphReduced-Dimension Emulative Autoencoder Monte Carlo (DREAM)アルゴリズムと呼ばれ,物理制約された逆問題においてベイズUQを数千次元まで拡張することができる。
論文 参考訳(メタデータ) (2021-01-11T14:18:38Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。