論文の概要: Parametric Complexity Bounds for Approximating PDEs with Neural Networks
- arxiv url: http://arxiv.org/abs/2103.02138v1
- Date: Wed, 3 Mar 2021 02:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:06:52.189507
- Title: Parametric Complexity Bounds for Approximating PDEs with Neural Networks
- Title(参考訳): ニューラルネットワークを用いたPDE近似のためのパラメトリック複雑境界
- Authors: Tanya Marwah, Zachary C. Lipton, Andrej Risteski
- Abstract要約: pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
- 参考スコア(独自算出の注目度): 41.46028070204925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent empirical results show that deep networks can approximate solutions to
high dimensional PDEs, seemingly escaping the curse of dimensionality. However
many open questions remain regarding the theoretical basis for such
approximations, including the number of parameters required. In this paper, we
investigate the representational power of neural networks for approximating
solutions to linear elliptic PDEs with Dirichlet Boundary conditions. We prove
that when a PDE's coefficients are representable by small neural networks, the
parameters required to approximate its solution scale polynomially with the
input dimension $d$ and are proportional to the parameter counts of the
coefficient neural networks. Our proof is based on constructing a neural
network which simulates gradient descent in an appropriate Hilbert space which
converges to the solution of the PDE. Moreover, we bound the size of the neural
network needed to represent each iterate in terms of the neural network
representing the previous iterate, resulting in a final network whose
parameters depend polynomially on $d$ and does not depend on the volume of the
domain.
- Abstract(参考訳): 最近の実証結果から、深層ネットワークは高次元PDEに対する解を近似し、次元の呪いから逃れることができることが示された。
しかし、そのような近似の理論的基礎に関する多くのオープンな質問は、必要なパラメータの数を含む。
本稿では,ディリクレ境界条件を用いた線形楕円型PDEの近似解に対するニューラルネットワークの表現力について検討する。
pdeの係数が小さなニューラルネットワークで表現可能である場合、その解のスケールを入力次元$d$で多項式的に近似するために必要なパラメータが係数ニューラルネットワークのパラメータ数に比例していることが証明される。
我々の証明は、PDEの解に収束する適切なヒルベルト空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
さらに、各繰り返しを表すために必要となるニューラルネットワークのサイズを、前回の反復を表すニューラルネットワークで制限し、結果としてパラメータが$d$に多項式的に依存し、ドメインの体積に依存しない最終的なネットワークとなる。
関連論文リスト
- Global Convergence of Deep Galerkin and PINNs Methods for Solving
Partial Differential Equations [0.0]
ニューラルネットワークを用いて解を近似することにより、高次元PDEを解くための様々なディープラーニング手法が開発されている。
我々はPDEの解法であるDeep Galerkin MethodDGM(ディープ・ガレルキン・メソッドDGM)の解法として広く使われているディープラーニングアルゴリズムの1つである。
論文 参考訳(メタデータ) (2023-05-10T09:20:11Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - Solving parametric partial differential equations with deep rectified
quadratic unit neural networks [38.16617079681564]
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
論文 参考訳(メタデータ) (2022-03-14T10:15:29Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - PDE-constrained Models with Neural Network Terms: Optimization and
Global Convergence [0.0]
近年の研究では、ディープラーニングを用いて、科学と工学における偏微分方程式(PDE)モデルを開発した。
ニューラルネットワークを用いた線形楕円型PDEの最適化について厳密に研究する。
ニューラルネットワークは,レイノルズ平均ナヴィエ・ストークス方程式の閉包モデルとして機能する流体力学への応用のために,ニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2021-05-18T16:04:33Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。