論文の概要: Convergence Analysis of the Deep Galerkin Method for Weak Solutions
- arxiv url: http://arxiv.org/abs/2302.02405v1
- Date: Sun, 5 Feb 2023 15:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:25:55.033985
- Title: Convergence Analysis of the Deep Galerkin Method for Weak Solutions
- Title(参考訳): 弱溶液に対するディープ・ガラキン法の収束解析
- Authors: Yuling Jiao, Yanming Lai, Yang Wang, Haizhao Yang, Yunfei Yang
- Abstract要約: DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
- 参考スコア(独自算出の注目度): 9.920833699101195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyzes the convergence rate of a deep Galerkin method for the
weak solution (DGMW) of second-order elliptic partial differential equations on
$\mathbb{R}^d$ with Dirichlet, Neumann, and Robin boundary conditions,
respectively. In DGMW, a deep neural network is applied to parametrize the PDE
solution, and a second neural network is adopted to parametrize the test
function in the traditional Galerkin formulation. By properly choosing the
depth and width of these two networks in terms of the number of training
samples $n$, it is shown that the convergence rate of DGMW is
$\mathcal{O}(n^{-1/d})$, which is the first convergence result for weak
solutions. The main idea of the proof is to divide the error of the DGMW into
an approximation error and a statistical error. We derive an upper bound on the
approximation error in the $H^{1}$ norm and bound the statistical error via
Rademacher complexity.
- Abstract(参考訳): 本稿では,ディリクレ,ノイマン,ロビン境界条件を持つ$\mathbb{R}^d$上の二階楕円偏微分方程式の弱解(DGMW)に対するディープ・ガレルキン法の収束速度を解析する。
DGMWでは、PDE溶液をパラメータ化するためにディープニューラルネットワークを適用し、従来のガレルキン定式化においてテスト関数をパラメータ化する第2のニューラルネットワークを採用する。
これらの2つのネットワークの深さと幅をトレーニングサンプル数で適切に選択することにより、dgmwの収束率は$\mathcal{o}(n^{-1/d})$であることが示され、これは弱解の最初の収束結果である。
証明の主な考え方は、DGMWの誤差を近似誤差と統計誤差に分割することである。
我々は、$H^{1}$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
関連論文リスト
- Deep Backward and Galerkin Methods for the Finite State Master Equation [12.570464662548787]
本稿では,有限状態平均場ゲームにおけるマスター方程式の解法として,2つのニューラルネットワーク手法を提案し,解析する。
アルゴリズムの損失関数を任意に小さくし、逆に損失が小さい場合、ニューラルネットワークはマスター方程式の解をよく近似する。
論文 参考訳(メタデータ) (2024-03-08T01:12:11Z) - Optimal Approximation of Zonoids and Uniform Approximation by Shallow
Neural Networks [2.7195102129095003]
以下の2つの問題について検討する。
1つ目は、$mathbbRd+1$の任意のソノイドがハウスドルフ距離で$n$の線分で近似できる誤差を決定することである。
2つ目は、変動空間上の浅いReLU$k$ニューラルネットワークの均一ノルムにおける最適近似率を決定することである。
論文 参考訳(メタデータ) (2023-07-28T03:43:17Z) - Gradient-Free Methods for Deterministic and Stochastic Nonsmooth
Nonconvex Optimization [94.19177623349947]
非滑らかな非最適化問題は、機械学習とビジネス製造に現れる。
2つのコア課題は、有限収束を保証する効率的な方法の開発を妨げる。
GFMとSGFMの2相版も提案され, 改良された大規模評価結果が得られた。
論文 参考訳(メタデータ) (2022-09-12T06:53:24Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Solving parametric partial differential equations with deep rectified
quadratic unit neural networks [38.16617079681564]
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
論文 参考訳(メタデータ) (2022-03-14T10:15:29Z) - Distributed Sparse Regression via Penalization [5.990069843501885]
エージェントのネットワーク上の線形回帰を、(集中ノードを持たない)無向グラフとしてモデル化する。
推定問題は、局所的なLASSO損失関数の和とコンセンサス制約の2次ペナルティの最小化として定式化される。
本稿では, ペナル化問題に適用した近似勾配アルゴリズムが, 集中的な統計的誤差の順序の許容値まで線形に収束することを示す。
論文 参考訳(メタデータ) (2021-11-12T01:51:50Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - A Priori Generalization Analysis of the Deep Ritz Method for Solving
High Dimensional Elliptic Equations [11.974322921837384]
Deep Ritz Method (DRM) の枠組みにおける2層ニューラルネットワークの一般化誤差境界を導出する。
一般化誤差の収束率は次元 $d$ から独立であることが証明される。
我々はスペクトルバロン空間上のPDEに対する新しい解理論を開発する。
論文 参考訳(メタデータ) (2021-01-05T18:50:59Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。