論文の概要: Convergence Analysis of the Deep Galerkin Method for Weak Solutions
- arxiv url: http://arxiv.org/abs/2302.02405v1
- Date: Sun, 5 Feb 2023 15:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:25:55.033985
- Title: Convergence Analysis of the Deep Galerkin Method for Weak Solutions
- Title(参考訳): 弱溶液に対するディープ・ガラキン法の収束解析
- Authors: Yuling Jiao, Yanming Lai, Yang Wang, Haizhao Yang, Yunfei Yang
- Abstract要約: DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
- 参考スコア(独自算出の注目度): 9.920833699101195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyzes the convergence rate of a deep Galerkin method for the
weak solution (DGMW) of second-order elliptic partial differential equations on
$\mathbb{R}^d$ with Dirichlet, Neumann, and Robin boundary conditions,
respectively. In DGMW, a deep neural network is applied to parametrize the PDE
solution, and a second neural network is adopted to parametrize the test
function in the traditional Galerkin formulation. By properly choosing the
depth and width of these two networks in terms of the number of training
samples $n$, it is shown that the convergence rate of DGMW is
$\mathcal{O}(n^{-1/d})$, which is the first convergence result for weak
solutions. The main idea of the proof is to divide the error of the DGMW into
an approximation error and a statistical error. We derive an upper bound on the
approximation error in the $H^{1}$ norm and bound the statistical error via
Rademacher complexity.
- Abstract(参考訳): 本稿では,ディリクレ,ノイマン,ロビン境界条件を持つ$\mathbb{R}^d$上の二階楕円偏微分方程式の弱解(DGMW)に対するディープ・ガレルキン法の収束速度を解析する。
DGMWでは、PDE溶液をパラメータ化するためにディープニューラルネットワークを適用し、従来のガレルキン定式化においてテスト関数をパラメータ化する第2のニューラルネットワークを採用する。
これらの2つのネットワークの深さと幅をトレーニングサンプル数で適切に選択することにより、dgmwの収束率は$\mathcal{o}(n^{-1/d})$であることが示され、これは弱解の最初の収束結果である。
証明の主な考え方は、DGMWの誤差を近似誤差と統計誤差に分割することである。
我々は、$H^{1}$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - Nonasymptotic Analysis of Stochastic Gradient Descent with the Richardson-Romberg Extrapolation [22.652143194356864]
ステップサイズが一定となる勾配勾配(SGD)アルゴリズムを用いて, 強い凸と滑らかな問題を解く問題に対処する。
得られた推定子の平均二乗誤差を$n$の反復数に対して拡張する。
我々は、この鎖が定義された重み付きワッサーシュタイン半計量に関して幾何学的にエルゴード的であることを確証する。
論文 参考訳(メタデータ) (2024-10-07T15:02:48Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Deep Backward and Galerkin Methods for the Finite State Master Equation [12.570464662548787]
本稿では,有限状態平均場ゲームにおけるマスター方程式の解法として,2つのニューラルネットワーク手法を提案し,解析する。
アルゴリズムの損失関数を任意に小さくし、逆に損失が小さい場合、ニューラルネットワークはマスター方程式の解をよく近似する。
論文 参考訳(メタデータ) (2024-03-08T01:12:11Z) - Gradient-Free Methods for Deterministic and Stochastic Nonsmooth
Nonconvex Optimization [94.19177623349947]
非滑らかな非最適化問題は、機械学習とビジネス製造に現れる。
2つのコア課題は、有限収束を保証する効率的な方法の開発を妨げる。
GFMとSGFMの2相版も提案され, 改良された大規模評価結果が得られた。
論文 参考訳(メタデータ) (2022-09-12T06:53:24Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Solving parametric partial differential equations with deep rectified
quadratic unit neural networks [38.16617079681564]
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
論文 参考訳(メタデータ) (2022-03-14T10:15:29Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。