論文の概要: Solving parametric partial differential equations with deep rectified
quadratic unit neural networks
- arxiv url: http://arxiv.org/abs/2203.06973v1
- Date: Mon, 14 Mar 2022 10:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 02:21:50.701803
- Title: Solving parametric partial differential equations with deep rectified
quadratic unit neural networks
- Title(参考訳): 奥行き直交単位ニューラルネットワークを用いたパラメトリック偏微分方程式の解法
- Authors: Zhen Lei, Lei Shi, Chenyu Zeng
- Abstract要約: 本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
- 参考スコア(独自算出の注目度): 38.16617079681564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implementing deep neural networks for learning the solution maps of
parametric partial differential equations (PDEs) turns out to be more efficient
than using many conventional numerical methods. However, limited theoretical
analyses have been conducted on this approach. In this study, we investigate
the expressive power of deep rectified quadratic unit (ReQU) neural networks
for approximating the solution maps of parametric PDEs. The proposed approach
is motivated by the recent important work of G. Kutyniok, P. Petersen, M.
Raslan and R. Schneider (Gitta Kutyniok, Philipp Petersen, Mones Raslan, and
Reinhold Schneider. A theoretical analysis of deep neural networks and
parametric pdes. Constructive Approximation, pages 1-53, 2021), which uses deep
rectified linear unit (ReLU) neural networks for solving parametric PDEs. In
contrast to the previously established complexity-bound
$\mathcal{O}\left(d^3\log_{2}^{q}(1/ \epsilon) \right)$ for ReLU neural
networks, we derive an upper bound $\mathcal{O}\left(d^3\log_{2}^{q}\log_{2}(1/
\epsilon) \right)$ on the size of the deep ReQU neural network required to
achieve accuracy $\epsilon>0$, where $d$ is the dimension of reduced basis
representing the solutions. Our method takes full advantage of the inherent
low-dimensionality of the solution manifolds and better approximation
performance of deep ReQU neural networks. Numerical experiments are performed
to verify our theoretical result.
- Abstract(参考訳): パラメトリック偏微分方程式(PDE)の解写像を学習するためのディープニューラルネットワークの実装は、多くの従来の数値法よりも効率的であることが判明した。
しかし、このアプローチでは限定的な理論解析が行われている。
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
g. kutyniok, p. petersen, m. raslan and r. schneider (gitta kutyniok, philipp petersen, mones raslan, reinhold schneider. a theory analysis of deep neural networks and parametric pdes. constructionive approximation, pages 1-53, 2021) によるパラメトリックpdesの解法。
reluニューラルネットワークに対して、以前確立された複雑性境界である$\mathcal{o}\left(d^3\log_{2}^{q}(1/ \epsilon) \right)$とは対照的に、解の正確性を達成するのに必要な深層requニューラルネットワークのサイズに対して、$d$が解を表す基底の縮小次元である$\mathcal{o}\left(d^3\log_{2}^{q}\log_{2}(1/ \epsilon) \right)$が導出される。
本手法は,解多様体の固有低次元性と深部ReQUニューラルネットワークの近似性能をフル活用する。
理論結果を検証するために数値実験を行う。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Global Convergence of Deep Galerkin and PINNs Methods for Solving
Partial Differential Equations [0.0]
ニューラルネットワークを用いて解を近似することにより、高次元PDEを解くための様々なディープラーニング手法が開発されている。
我々はPDEの解法であるDeep Galerkin MethodDGM(ディープ・ガレルキン・メソッドDGM)の解法として広く使われているディープラーニングアルゴリズムの1つである。
論文 参考訳(メタデータ) (2023-05-10T09:20:11Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Nonlocal Kernel Network (NKN): a Stable and Resolution-Independent Deep
Neural Network [23.465930256410722]
非ローカルカーネルネットワーク(NKN)は、ディープニューラルネットワークを特徴とする解像度独立である。
NKNは、支配方程式の学習や画像の分類など、さまざまなタスクを処理できる。
論文 参考訳(メタデータ) (2022-01-06T19:19:35Z) - Overparameterization of deep ResNet: zero loss and mean-field analysis [19.45069138853531]
データに適合するディープニューラルネットワーク(NN)内のパラメータを見つけることは、非最適化問題である。
基礎的な一階述語最適化法(漸進降下法)は,多くの現実的状況に完全に適合した大域的解を求める。
所定の閾値未満の損失を減らすために必要な深さと幅を高い確率で推定する。
論文 参考訳(メタデータ) (2021-05-30T02:46:09Z) - Parametric Complexity Bounds for Approximating PDEs with Neural Networks [41.46028070204925]
pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
論文 参考訳(メタデータ) (2021-03-03T02:42:57Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Two-Layer Neural Networks for Partial Differential Equations:
Optimization and Generalization Theory [4.243322291023028]
勾配降下法は二階線形PDEを解くための最小二乗最適化の大域最小化器を同定できることを示す。
また,2階線形PDEと2層ニューラルネットワークの最小二乗最適化の一般化誤差を解析した。
論文 参考訳(メタデータ) (2020-06-28T22:24:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。