論文の概要: Convergence of the Deep Galerkin Method for Mean Field Control Problems
- arxiv url: http://arxiv.org/abs/2405.13346v1
- Date: Wed, 22 May 2024 05:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 01:24:25.592339
- Title: Convergence of the Deep Galerkin Method for Mean Field Control Problems
- Title(参考訳): 平均場制御問題に対するディープ・ガレルキン法の収束性
- Authors: William Hofgard, Jingruo Sun, Asaf Cohen,
- Abstract要約: 我々は高次元非線形PDEを解くためのディープ・ガレルキン法(DGM)の収束性を確立する。
MFCPの値関数が十分な正則性を持つので、DGMの損失関数を任意に小さくすることができることを示す。
また,DGMの高次元HJB方程式への一般化能力を示す数値実験を行った。
- 参考スコア(独自算出の注目度): 10.262982510921015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We establish the convergence of the deep Galerkin method (DGM), a deep learning-based scheme for solving high-dimensional nonlinear PDEs, for Hamilton-Jacobi-Bellman (HJB) equations that arise from the study of mean field control problems (MFCPs). Based on a recent characterization of the value function of the MFCP as the unique viscosity solution of an HJB equation on the simplex, we establish both an existence and convergence result for the DGM. First, we show that the loss functional of the DGM can be made arbitrarily small given that the value function of the MFCP possesses sufficient regularity. Then, we show that if the loss functional of the DGM converges to zero, the corresponding neural network approximators must converge uniformly to the true value function on the simplex. We also provide numerical experiments demonstrating the DGM's ability to generalize to high-dimensional HJB equations.
- Abstract(参考訳): 我々は、平均場制御問題(MFCP)の研究から生じるハミルトン・ヤコビ・ベルマン方程式(HJB)に対して、高次元非線形PDEを解くためのディープラーニングベースのスキームであるディープ・ガレルキン法(DGM)の収束を確立する。
近年,MFCP の値関数を単純体上の HJB 方程式の特異な粘性解として特徴づけることから,DGM の存在と収束結果の両立を図った。
まず、MFCPの値関数が十分な正則性を持つので、DGMの損失関数を任意に小さくすることができることを示す。
そして、DGMの損失関数が0に収束した場合、対応するニューラルネットワーク近似器は、単純度上の真の値関数に一様に収束しなければならないことを示す。
また,DGMの高次元HJB方程式への一般化能力を示す数値実験を行った。
関連論文リスト
- Bellman Diffusion: Generative Modeling as Learning a Linear Operator in the Distribution Space [72.52365911990935]
本稿では,MDPの線形性を維持する新しいDGMフレームワークであるBellman Diffusionを紹介する。
この結果から,ベルマン拡散は分布RLタスクにおける従来のヒストグラムベースベースラインよりも1.5倍高速に収束し,精度の高い画像生成装置であることがわかった。
論文 参考訳(メタデータ) (2024-10-02T17:53:23Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Wasserstein proximal operators describe score-based generative models
and resolve memorization [12.321631823103894]
We first formulate SGMs with terms of Wasserstein proximal operator (WPO)
We show that WPO describe the inductive bias of diffusion and score-based model。
本稿では,SGMの性能を劇的に向上させる,スコア関数の解釈可能なカーネルベースモデルを提案する。
論文 参考訳(メタデータ) (2024-02-09T03:33:13Z) - Randomized Physics-Informed Machine Learning for Uncertainty
Quantification in High-Dimensional Inverse Problems [49.1574468325115]
本研究では,高次元逆問題における不確実性定量化のための物理インフォームド機械学習手法を提案する。
我々は解析的に、そして、ハミルトン・モンテカルロとの比較を通して、rPICKLE はベイズ則によって与えられる真の後続に収束することを示す。
論文 参考訳(メタデータ) (2023-12-11T07:33:16Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Convergence Analysis of the Deep Galerkin Method for Weak Solutions [9.920833699101195]
DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
論文 参考訳(メタデータ) (2023-02-05T15:25:16Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z) - A Priori Generalization Analysis of the Deep Ritz Method for Solving
High Dimensional Elliptic Equations [11.974322921837384]
Deep Ritz Method (DRM) の枠組みにおける2層ニューラルネットワークの一般化誤差境界を導出する。
一般化誤差の収束率は次元 $d$ から独立であることが証明される。
我々はスペクトルバロン空間上のPDEに対する新しい解理論を開発する。
論文 参考訳(メタデータ) (2021-01-05T18:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。