論文の概要: Numerical Approximation of Partial Differential Equations by a Variable
Projection Method with Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2201.09989v1
- Date: Mon, 24 Jan 2022 22:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:50:49.790995
- Title: Numerical Approximation of Partial Differential Equations by a Variable
Projection Method with Artificial Neural Networks
- Title(参考訳): ニューラルネットワークを用いた可変射影法による部分微分方程式の数値近似
- Authors: Suchuan Dong, Jielin Yang
- Abstract要約: 本稿では、可変投影(VarPro)フレームワークと人工ニューラルネットワーク(ANN)に基づく線形非線形PDEの解法を提案する。
線形PDEでは、コロケーション点上の境界値と初期値の問題を強制すると、ネットワーク係数に関する分離可能な非線形最小二乗問題が発生する。
本稿では, 線形出力層係数を除去するためにVarPro法によりこの問題を再検討し, 隠蔽層係数のみに関する問題を低減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for solving linear and nonlinear PDEs based on the
variable projection (VarPro) framework and artificial neural networks (ANN).
For linear PDEs, enforcing the boundary/initial value problem on the
collocation points leads to a separable nonlinear least squares problem about
the network coefficients. We reformulate this problem by the VarPro approach to
eliminate the linear output-layer coefficients, leading to a reduced problem
about the hidden-layer coefficients only. The reduced problem is solved first
by the nonlinear least squares method to determine the hidden-layer
coefficients, and then the output-layer coefficients are computed by the linear
least squares method. For nonlinear PDEs, enforcing the boundary/initial value
problem on the collocation points leads to a nonlinear least squares problem
that is not separable, which precludes the VarPro strategy for such problems.
To enable the VarPro approach for nonlinear PDEs, we first linearize the
problem with a Newton iteration, using a particular form of linearization. The
linearized system is solved by the VarPro framework together with ANNs. Upon
convergence of the Newton iteration, the network coefficients provide the
representation of the solution field to the original nonlinear problem. We
present ample numerical examples with linear and nonlinear PDEs to demonstrate
the performance of the method herein. For smooth field solutions, the errors of
the current method decrease exponentially as the number of collocation points
or the number of output-layer coefficients increases. We compare the current
method with the ELM method from a previous work. Under identical conditions and
network configurations, the current method exhibits an accuracy significantly
superior to the ELM method.
- Abstract(参考訳): 本稿では,可変プロジェクション(VarPro)フレームワークと人工ニューラルネットワーク(ANN)に基づく線形非線形PDEの解法を提案する。
線形pdesでは、コロケーション点の境界/初期値問題を実行すると、ネットワーク係数に関する分離可能な非線形最小二乗問題が発生する。
本稿では,この問題をvarpro法を用いて再検討し,線形出力層係数を除去し,隠れ層係数のみの問題に導く。
減算問題を非線形最小二乗法によりまず解いて隠蔽層係数を決定し、次いで線形最小二乗法により出力層係数を算出する。
非線形 PDE に対して、コロケーション点上の境界/初期値問題を強制すると、分離不能な非線形最小二乗問題が発生し、そのような問題に対する VarPro の戦略が妨げられる。
非線形PDEに対するVarProアプローチを実現するために、我々はまず特定の形式の線形化を用いてニュートン反復を用いて問題を線形化する。
線形化システムは、ANNとともにVarProフレームワークによって解決される。
ニュートン反復が収束すると、ネットワーク係数は元の非線形問題に対する解場の表現を提供する。
本稿では,線形および非線形PDEを用いた数値例を多数提示し,本手法の性能を示す。
滑らかな場解では、コロケーション点数や出力層係数が増加するにつれて、電流法の誤差が指数関数的に減少する。
本手法とEMM法との比較を行った。
同一条件およびネットワーク構成下では、現在の手法はEMM法よりも精度が優れている。
関連論文リスト
- An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Least-Squares ReLU Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Law [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
本手法は,自由度数の観点からメッシュベースの数値法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T02:59:48Z) - Solving and Learning Nonlinear PDEs with Gaussian Processes [11.09729362243947]
非線形偏微分方程式を解くための単純で厳密で統一された枠組みを提案する。
提案手法は、コロケーションカーネル法を非線形PDEとIPに自然に一般化する。
IP では,PDE におけるパラメータの同定と解の数値近似を反復的に行う手法が提案されているが,アルゴリズムは両手法を同時に扱う。
論文 参考訳(メタデータ) (2021-03-24T03:16:08Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Reduction of the Number of Variables in Parametric Constrained
Least-Squares Problems [0.20305676256390928]
本稿では,関連する最適化変数数を削減する手法を提案する。
本稿では, 非線形ベンチマークプロセスの数値実験および線形化MPC問題において, 提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-18T18:26:40Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。