論文の概要: Exponential Convergence of Deep Operator Networks for Elliptic Partial
Differential Equations
- arxiv url: http://arxiv.org/abs/2112.08125v1
- Date: Wed, 15 Dec 2021 13:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:19:49.376717
- Title: Exponential Convergence of Deep Operator Networks for Elliptic Partial
Differential Equations
- Title(参考訳): 楕円偏微分方程式に対する深部演算子の指数収束
- Authors: Carlo Marcati and Christoph Schwab
- Abstract要約: 楕円型二階PDEの係数対解写像の指数収束率でエミュレートする無限次元空間間の深い作用素ネットワーク(ONets)を構築する。
特に、$d$次元周期領域、$d=1, 2, dots$、分析右辺と係数に設定された問題を考える。
我々はONetのニューラルネットワークのサイズが$mathcalO(left|log(varepsilon)right|kappa)$であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We construct deep operator networks (ONets) between infinite-dimensional
spaces that emulate with an exponential rate of convergence the
coefficient-to-solution map of elliptic second-order PDEs. In particular, we
consider problems set in $d$-dimensional periodic domains, $d=1, 2, \dots$, and
with analytic right-hand sides and coefficients. Our analysis covers
diffusion-reaction problems, parametric diffusion equations, and elliptic
systems such as linear isotropic elastostatics in heterogeneous materials.
We leverage the exponential convergence of spectral collocation methods for
boundary value problems whose solutions are analytic. In the present periodic
and analytic setting, this follows from classical elliptic regularity. Within
the ONet branch and trunk construction of [Chen and Chen, 1993] and of [Lu et
al., 2021], we show the existence of deep ONets which emulate the
coefficient-to-solution map to accuracy $\varepsilon>0$ in the $H^1$ norm,
uniformly over the coefficient set. We prove that the neural networks in the
ONet have size $\mathcal{O}(\left|\log(\varepsilon)\right|^\kappa)$ for some
$\kappa>0$ depending on the physical space dimension.
- Abstract(参考訳): 楕円型二階PDEの係数対解写像の指数収束率でエミュレートする無限次元空間間の深い作用素ネットワーク(ONets)を構築する。
特に、d$-dimensional periodic domain, $d=1, 2, \dots$, and with analytic right-hand side and coefficients に設定された問題を考える。
異種材料における拡散反応問題,パラメトリック拡散方程式,線形等方性エラストスタシスなどの楕円系について検討した。
解析的解を持つ境界値問題に対してスペクトルコロケーション法の指数収束を利用する。
現在の周期的および解析的設定では、これは古典楕円正則性から従う。
ONetブランチと[Chen and Chen, 1993] および [Lu et al., 2021] のトランク構成では、係数対解写像を正確に$H^1$ノルムで$\varepsilon>0$にエミュレートするディープオネットの存在を示す。
我々は、onet内のニューラルネットワークが、物理空間次元に応じて$\kappa>0$のいくつかの値に対して$\mathcal{o}(\left|\log(\varepsilon)\right|^\kappa)$を持つことを証明する。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Operator learning for hyperbolic partial differential equations [9.434110429069385]
我々は、双曲偏微分方程式(PDE)の解演算子を復元するための、初めて厳密に正当化された確率的アルゴリズムを構築した。
双曲型PDEの解作用素を復元する主な課題は特性の存在であり、それに伴うグリーン関数は不連続である。
双曲型PDEの係数の正則性に関する仮定は、双曲型PDEが楕円型および放物型PDEの「即時平滑化効果」を持たないことを考えると、比較的弱い。
論文 参考訳(メタデータ) (2023-12-29T06:41:50Z) - Correspondence between open bosonic systems and stochastic differential
equations [77.34726150561087]
ボゾン系が環境との相互作用を含むように一般化されたとき、有限$n$で正確な対応も可能であることを示す。
離散非線形シュル「オーディンガー方程式」の形をした特定の系をより詳細に分析する。
論文 参考訳(メタデータ) (2023-02-03T19:17:37Z) - Conditions for realizing one-point interactions from a multi-layer
structure model [77.34726150561087]
N$平行な均質層からなるヘテロ構造は、その幅が0に縮まるにつれて、その極限において研究される。
問題は一次元で調べられ、シュル・オーディンガー方程式の断片的定数ポテンシャルが与えられる。
論文 参考訳(メタデータ) (2021-12-15T22:30:39Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - A Priori Generalization Analysis of the Deep Ritz Method for Solving
High Dimensional Elliptic Equations [11.974322921837384]
Deep Ritz Method (DRM) の枠組みにおける2層ニューラルネットワークの一般化誤差境界を導出する。
一般化誤差の収束率は次元 $d$ から独立であることが証明される。
我々はスペクトルバロン空間上のPDEに対する新しい解理論を開発する。
論文 参考訳(メタデータ) (2021-01-05T18:50:59Z) - Exponential ReLU Neural Network Approximation Rates for Point and Edge
Singularities [0.0]
ポリトープ領域の重み付け解析関数クラスに対して,安定なReLUニューラルネット(ReLU NN)を$H1(Omega)$で表現する。
指数近似速度は、直線面を持つリプシッツ多角形の空間次元$d = 2$、平面面を持つフィチェラ型多面体領域における空間次元$d=3$で表される。
論文 参考訳(メタデータ) (2020-10-23T07:44:32Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。