論文の概要: dNNsolve: an efficient NN-based PDE solver
- arxiv url: http://arxiv.org/abs/2103.08662v1
- Date: Mon, 15 Mar 2021 19:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 00:42:37.248733
- Title: dNNsolve: an efficient NN-based PDE solver
- Title(参考訳): dNNsolve: NNベースの効率的なPDEソルバ
- Authors: Veronica Guidetti, Francesco Muia, Yvette Welling and Alexander
Westphal
- Abstract要約: ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Networks (NNs) can be used to solve Ordinary and Partial Differential
Equations (ODEs and PDEs) by redefining the question as an optimization
problem. The objective function to be optimized is the sum of the squares of
the PDE to be solved and of the initial/boundary conditions. A feed forward NN
is trained to minimise this loss function evaluated on a set of collocation
points sampled from the domain where the problem is defined. A compact and
smooth solution, that only depends on the weights of the trained NN, is then
obtained. This approach is often referred to as PINN, from Physics Informed
Neural Network~\cite{raissi2017physics_1, raissi2017physics_2}. Despite the
success of the PINN approach in solving various classes of PDEs, an
implementation of this idea that is capable of solving a large class of ODEs
and PDEs with good accuracy and without the need to finely tune the
hyperparameters of the network, is not available yet. In this paper, we
introduce a new implementation of this concept - called dNNsolve - that makes
use of dual Neural Networks to solve ODEs/PDEs. These include: i) sine and
sigmoidal activation functions, that provide a more efficient basis to capture
both secular and periodic patterns in the solutions; ii) a newly designed
architecture, that makes it easy for the the NN to approximate the solution
using the basis functions mentioned above. We show that dNNsolve is capable of
solving a broad range of ODEs/PDEs in 1, 2 and 3 spacetime dimensions, without
the need of hyperparameter fine-tuning.
- Abstract(参考訳): ニューラルネットワーク(nns)は、問題を最適化問題として再定義することで、通常の偏微分方程式(odesとpdes)を解くのに使うことができる。
最適化すべき目的関数は、解決すべきPDEの平方と初期/境界条件の和である。
フィードフォワードnnは、問題の定義領域からサンプリングされた一連のコロケーションポイントで評価されたこの損失関数を最小化するように訓練される。
訓練されたNNの重みにのみ依存するコンパクトで滑らかな解が得られる。
この手法はしばしば PINN と呼ばれ、物理情報ニューラルネットワーク~\cite{raissi2017physics_1, raissi2017physics_2} に由来する。
PDEの様々なクラスを解決するためのPINNアプローチの成功にもかかわらず、ネットワークのハイパーパラメータを微調整する必要がなく、高い精度で多数のODEとPDEを解くことができるこのアイデアの実装はまだ利用できない。
本稿では,この概念の新たな実装であるdNNsolveを紹介し,ODE/PDEを解くためにデュアルニューラルネットワークを利用する。
i) 正弦およびシグモイド活性化関数は、解の周期的パターンと周期的パターンの両方を捉えるためのより効率的な基礎を提供し、ii) nnが上記の基底関数を用いて解を近似することを容易にする、新しく設計されたアーキテクチャである。
DNNsolveは1, 2, 3の時空次元において,ハイパーパラメータの微調整を必要とせずに,幅広いODE/PDEを解くことができることを示す。
関連論文リスト
- Correctness Verification of Neural Networks Approximating Differential
Equations [0.0]
ニューラルネットワーク(NN)は部分微分方程式(PDE)の解を近似する
NNはシミュレーションソフトウェアツールの不可欠な部分となり、複雑な動的システムのシミュレーションを100回以上加速することができる。
この研究は、NN微分を有限差分近似として定義することにより、これらの関数の検証に対処する。
初めて、出力領域の事前知識のないNN関数のバウンダリング問題に取り組む。
論文 参考訳(メタデータ) (2024-02-12T12:55:35Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Bayesian neural networks for weak solution of PDEs with uncertainty
quantification [3.4773470589069473]
ラベルなしでPDEを解くために、新しい物理制約ニューラルネットワーク(NN)アプローチが提案されている。
我々は,PDEの離散化残差に基づくNNの損失関数を,効率的で畳み込み演算子に基づくベクトル化実装により記述する。
本研究では, 定常拡散, 線形弾性, 非線形弾性に応用し, 提案フレームワークの性能と性能を示す。
論文 参考訳(メタデータ) (2021-01-13T04:57:51Z) - Two-Layer Neural Networks for Partial Differential Equations:
Optimization and Generalization Theory [4.243322291023028]
勾配降下法は二階線形PDEを解くための最小二乗最適化の大域最小化器を同定できることを示す。
また,2階線形PDEと2層ニューラルネットワークの最小二乗最適化の一般化誤差を解析した。
論文 参考訳(メタデータ) (2020-06-28T22:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。