論文の概要: Numerical Approximation of Partial Differential Equations by a Variable
Projection Method with Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2201.09989v1
- Date: Mon, 24 Jan 2022 22:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:50:49.790995
- Title: Numerical Approximation of Partial Differential Equations by a Variable
Projection Method with Artificial Neural Networks
- Title(参考訳): ニューラルネットワークを用いた可変射影法による部分微分方程式の数値近似
- Authors: Suchuan Dong, Jielin Yang
- Abstract要約: 本稿では、可変投影(VarPro)フレームワークと人工ニューラルネットワーク(ANN)に基づく線形非線形PDEの解法を提案する。
線形PDEでは、コロケーション点上の境界値と初期値の問題を強制すると、ネットワーク係数に関する分離可能な非線形最小二乗問題が発生する。
本稿では, 線形出力層係数を除去するためにVarPro法によりこの問題を再検討し, 隠蔽層係数のみに関する問題を低減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for solving linear and nonlinear PDEs based on the
variable projection (VarPro) framework and artificial neural networks (ANN).
For linear PDEs, enforcing the boundary/initial value problem on the
collocation points leads to a separable nonlinear least squares problem about
the network coefficients. We reformulate this problem by the VarPro approach to
eliminate the linear output-layer coefficients, leading to a reduced problem
about the hidden-layer coefficients only. The reduced problem is solved first
by the nonlinear least squares method to determine the hidden-layer
coefficients, and then the output-layer coefficients are computed by the linear
least squares method. For nonlinear PDEs, enforcing the boundary/initial value
problem on the collocation points leads to a nonlinear least squares problem
that is not separable, which precludes the VarPro strategy for such problems.
To enable the VarPro approach for nonlinear PDEs, we first linearize the
problem with a Newton iteration, using a particular form of linearization. The
linearized system is solved by the VarPro framework together with ANNs. Upon
convergence of the Newton iteration, the network coefficients provide the
representation of the solution field to the original nonlinear problem. We
present ample numerical examples with linear and nonlinear PDEs to demonstrate
the performance of the method herein. For smooth field solutions, the errors of
the current method decrease exponentially as the number of collocation points
or the number of output-layer coefficients increases. We compare the current
method with the ELM method from a previous work. Under identical conditions and
network configurations, the current method exhibits an accuracy significantly
superior to the ELM method.
- Abstract(参考訳): 本稿では,可変プロジェクション(VarPro)フレームワークと人工ニューラルネットワーク(ANN)に基づく線形非線形PDEの解法を提案する。
線形pdesでは、コロケーション点の境界/初期値問題を実行すると、ネットワーク係数に関する分離可能な非線形最小二乗問題が発生する。
本稿では,この問題をvarpro法を用いて再検討し,線形出力層係数を除去し,隠れ層係数のみの問題に導く。
減算問題を非線形最小二乗法によりまず解いて隠蔽層係数を決定し、次いで線形最小二乗法により出力層係数を算出する。
非線形 PDE に対して、コロケーション点上の境界/初期値問題を強制すると、分離不能な非線形最小二乗問題が発生し、そのような問題に対する VarPro の戦略が妨げられる。
非線形PDEに対するVarProアプローチを実現するために、我々はまず特定の形式の線形化を用いてニュートン反復を用いて問題を線形化する。
線形化システムは、ANNとともにVarProフレームワークによって解決される。
ニュートン反復が収束すると、ネットワーク係数は元の非線形問題に対する解場の表現を提供する。
本稿では,線形および非線形PDEを用いた数値例を多数提示し,本手法の性能を示す。
滑らかな場解では、コロケーション点数や出力層係数が増加するにつれて、電流法の誤差が指数関数的に減少する。
本手法とEMM法との比較を行った。
同一条件およびネットワーク構成下では、現在の手法はEMM法よりも精度が優れている。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - A Structure-Guided Gauss-Newton Method for Shallow ReLU Neural Network [18.06366638807982]
浅いReLUニューラルネットワークを用いて最小二乗問題を解くための構造誘導型ガウスニュートン法(SgGN)を提案する。
目的関数の最小二乗構造とニューラルネットワーク構造の両方を効果的に活用する。
論文 参考訳(メタデータ) (2024-04-07T20:24:44Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Least-Squares ReLU Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Law [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
本手法は,自由度数の観点からメッシュベースの数値法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T02:59:48Z) - Solving and Learning Nonlinear PDEs with Gaussian Processes [11.09729362243947]
非線形偏微分方程式を解くための単純で厳密で統一された枠組みを提案する。
提案手法は、コロケーションカーネル法を非線形PDEとIPに自然に一般化する。
IP では,PDE におけるパラメータの同定と解の数値近似を反復的に行う手法が提案されているが,アルゴリズムは両手法を同時に扱う。
論文 参考訳(メタデータ) (2021-03-24T03:16:08Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。