論文の概要: Is $L^2$ Physics-Informed Loss Always Suitable for Training
Physics-Informed Neural Network?
- arxiv url: http://arxiv.org/abs/2206.02016v1
- Date: Sat, 4 Jun 2022 15:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 18:00:14.423677
- Title: Is $L^2$ Physics-Informed Loss Always Suitable for Training
Physics-Informed Neural Network?
- Title(参考訳): l^2$物理インフォームド損失は、常に物理インフォームドニューラルネットワークのトレーニングに適しているか?
- Authors: Chuwei Wang, Shanda Li, Di He, Liwei Wang
- Abstract要約: L2$ Physics-Informed Lossは、物理インフォームドニューラルネットワークのトレーニングにおけるデファクトスタンダードである。
我々は,HJB方程式に対する$Linfty$損失を最小限に抑える新しいPINNトレーニングを開発する。
- 参考スコア(独自算出の注目度): 28.458641579364457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Physics-Informed Neural Network (PINN) approach is a new and promising
way to solve partial differential equations using deep learning. The $L^2$
Physics-Informed Loss is the de-facto standard in training Physics-Informed
Neural Networks. In this paper, we challenge this common practice by
investigating the relationship between the loss function and the approximation
quality of the learned solution. In particular, we leverage the concept of
stability in the literature of partial differential equation to study the
asymptotic behavior of the learned solution as the loss approaches zero. With
this concept, we study an important class of high-dimensional non-linear PDEs
in optimal control, the Hamilton-Jacobi-Bellman(HJB) Equation, and prove that
for general $L^p$ Physics-Informed Loss, a wide class of HJB equation is stable
only if $p$ is sufficiently large. Therefore, the commonly used $L^2$ loss is
not suitable for training PINN on those equations, while $L^{\infty}$ loss is a
better choice. Based on the theoretical insight, we develop a novel PINN
training algorithm to minimize the $L^{\infty}$ loss for HJB equations which is
in a similar spirit to adversarial training. The effectiveness of the proposed
algorithm is empirically demonstrated through experiments.
- Abstract(参考訳): 物理学に変形したニューラルネットワーク(pinn)アプローチは、深層学習を用いて偏微分方程式を解く新しい有望な方法である。
L^2$物理インフォームド・ロスは物理インフォームド・ニューラルネットワークのトレーニングにおけるデファクト標準である。
本稿では,学習した解の損失関数と近似品質の関係を調査することによって,この共通的な実践に挑戦する。
特に、偏微分方程式の文献における安定性の概念を利用して、損失がゼロに近づくにつれて学習した解の漸近的挙動を研究する。
この概念を用いて、最適制御における高次元非線形PDEの重要なクラスであるハミルトン・ヤコビ・ベルマン(HJB)方程式を研究し、一般の$L^p$物理インフォームドロスに対して、HJB方程式の広いクラスが安定であることを証明する。
したがって、一般的に用いられる$L^2$損失はこれらの方程式でPINNを訓練するのに適さないが、$L^{\infty}$損失の方がよい選択である。
理論的知見に基づいて,HJB方程式に対する$L^{\infty}$損失を最小限に抑える新しいPINNトレーニングアルゴリズムを開発した。
提案アルゴリズムの有効性を実験により実証した。
関連論文リスト
- On the estimation rate of Bayesian PINN for inverse problems [10.100602879566782]
物理インフォームドニューラルネットワーク(PINN)を用いた偏微分方程式(PDE)とその逆問題の解法は、物理学と機械学習のコミュニティにおいて急速に普及しているアプローチである。
我々は,PDEの解のベイズPINN推定器の挙動を$n$独立雑音測定から検討した。
論文 参考訳(メタデータ) (2024-06-21T01:13:18Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - DEQGAN: Learning the Loss Function for PINNs with Generative Adversarial
Networks [1.0499611180329804]
本研究は、生成逆数ネットワークを用いた微分方程式の解法である微分方程式GAN(DEQGAN)を提案する。
DeQGAN は PINN よりも 平均二乗誤差が桁違いに小さくなることを示す。
また、DECGANは、一般的な数値法と競合する解の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:39:47Z) - Physics-Informed Neural Network Method for Parabolic Differential
Equations with Sharply Perturbed Initial Conditions [68.8204255655161]
急激な摂動初期条件を持つパラボラ問題に対する物理インフォームドニューラルネットワーク(PINN)モデルを開発した。
ADE解の局所的な大きな勾配は(PINNでよく見られる)ラテンハイパーキューブで方程式の残余の高効率なサンプリングを行う。
本稿では,他の方法により選択した量よりも精度の高いPINNソリューションを生成する損失関数における重みの基準を提案する。
論文 参考訳(メタデータ) (2022-08-18T05:00:24Z) - Enhanced Physics-Informed Neural Networks with Augmented Lagrangian
Relaxation Method (AL-PINNs) [1.7403133838762446]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)の解の強力な近似器である
PINN(AL-PINN)のための拡張ラグランジアン緩和法を提案する。
AL-PINNは、最先端の適応的損失分散アルゴリズムと比較して、相対誤差がはるかに小さいことを様々な数値実験で示している。
論文 参考訳(メタデータ) (2022-04-29T08:33:11Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Learning in Sinusoidal Spaces with Physics-Informed Neural Networks [22.47355575565345]
物理インフォームドニューラルネットワーク(PINN)は、物理増強された損失関数を用いて、その出力が基本的な物理法則と一致していることを保証する。
実際に多くの問題に対して正確なPINNモデルをトレーニングすることは困難であることが判明した。
論文 参考訳(メタデータ) (2021-09-20T07:42:41Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Large-time asymptotics in deep learning [0.0]
トレーニングにおける最終時間の$T$(対応するResNetの深さを示す可能性がある)の影響について検討する。
古典的な$L2$-正規化経験的リスク最小化問題に対して、トレーニングエラーが$mathcalOleft(frac1Tright)$のほとんどであることを示す。
$ellp$-距離損失の設定において、トレーニングエラーと最適パラメータの両方が$mathcalOleft(e-mu)の順序のほとんどであることを示す。
論文 参考訳(メタデータ) (2020-08-06T07:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。