論文の概要: Convergence analysis of unsupervised Legendre-Galerkin neural networks
for linear second-order elliptic PDEs
- arxiv url: http://arxiv.org/abs/2211.08900v1
- Date: Wed, 16 Nov 2022 13:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:59:58.391882
- Title: Convergence analysis of unsupervised Legendre-Galerkin neural networks
for linear second-order elliptic PDEs
- Title(参考訳): 線形2次楕円型pdesのための教師なしガレルキンニューラルネットワークの収束解析
- Authors: Seungchan Ko, Seok-Bae Yun and Youngjoon Hong
- Abstract要約: 教師なしレジェンダ-ガレルキンニューラルネットワーク(ULGNet)の収束解析を行う。
ULGNetは偏微分方程式(PDE)を解くためのディープラーニングに基づく数値法である
- 参考スコア(独自算出の注目度): 0.8594140167290099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we perform the convergence analysis of unsupervised
Legendre--Galerkin neural networks (ULGNet), a deep-learning-based numerical
method for solving partial differential equations (PDEs). Unlike existing deep
learning-based numerical methods for PDEs, the ULGNet expresses the solution as
a spectral expansion with respect to the Legendre basis and predicts the
coefficients with deep neural networks by solving a variational residual
minimization problem. Since the corresponding loss function is equivalent to
the residual induced by the linear algebraic system depending on the choice of
basis functions, we prove that the minimizer of the discrete loss function
converges to the weak solution of the PDEs. Numerical evidence will also be
provided to support the theoretical result. Key technical tools include the
variant of the universal approximation theorem for bounded neural networks, the
analysis of the stiffness and mass matrices, and the uniform law of large
numbers in terms of the Rademacher complexity.
- Abstract(参考訳): 本稿では,偏微分方程式(pdes)を解くためのディープラーニングに基づく数値解法であるulgnet(unsupervised legendre-galerkin neural networks)の収束解析を行う。
既存のPDEのディープラーニングベース数値法とは異なり、ULGNetはレジェンダベースに対するスペクトル展開として解を表現し、変分残差最小化問題を解くことでディープニューラルネットワークによる係数を予測する。
対応する損失関数は基底関数の選択に依存する線形代数系によって誘導される残差と等価であるため、離散損失関数の最小化がPDEの弱解に収束することを証明する。
理論的結果を支持する数値的な証拠も提供される。
主要な技術ツールには、有界ニューラルネットワークに対する普遍近似定理の変種、剛性と質量行列の解析、およびラデマッハの複雑性の観点からの大数の均一な法則が含まれる。
関連論文リスト
- First Order System Least Squares Neural Networks [0.0]
深部ニューラルネットワークによるユークリッド空間における有界多面体ドメイン上のPDEを数値的に解く。
LSQ損失関数の正確な数値最小化を仮定した適応型ニューラルネットワーク成長戦略を提案する。
論文 参考訳(メタデータ) (2024-09-30T13:04:35Z) - Neural networks for bifurcation and linear stability analysis of steady states in partial differential equations [0.0]
パラメータ化非線形PDEから分岐図を構築するニューラルネットワークを提案する。
固有値問題を解き、解の線形安定性を解析するためのニューラルネットワークアプローチも提示される。
論文 参考訳(メタデータ) (2024-07-29T05:05:13Z) - Lie Point Symmetry and Physics Informed Networks [59.56218517113066]
本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-07T19:07:16Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - DiffNet: Neural Field Solutions of Parametric Partial Differential
Equations [30.80582606420882]
我々は、ニューラルネットワークをトレーニングし、PDEに対するソリューションのフィールド予測を生成するメッシュベースのアプローチを検討する。
パラメトリック楕円PDE上の有限要素法(FEM)に基づく重み付きガレルキン損失関数を用いる。
PDE に対する有限要素解に展開されたメッシュ収束解析に類似した,理論的に検証し,実験により考察する。
論文 参考訳(メタデータ) (2021-10-04T17:59:18Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - Parametric Complexity Bounds for Approximating PDEs with Neural Networks [41.46028070204925]
pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
論文 参考訳(メタデータ) (2021-03-03T02:42:57Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。