論文の概要: A novel meta-learning initialization method for physics-informed neural
networks
- arxiv url: http://arxiv.org/abs/2107.10991v1
- Date: Fri, 23 Jul 2021 01:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 13:51:24.467351
- Title: A novel meta-learning initialization method for physics-informed neural
networks
- Title(参考訳): 物理インフォームドニューラルネットワークのための新しいメタ学習初期化法
- Authors: Xu Liu, Xiaoya Zhang, Wei Peng, Weien Zhou, Wen Yao
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、様々な科学計算問題を解くために広く用いられている。
NRPINN(Reptile initialization based Physics-Informed Neural Network)を提案する。
実験の結果,NRPINNのトレーニングは,他のトレーニング手法に比べてはるかに高速で精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 6.864312468709774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have been widely used to solve
various scientific computing problems. However, large training costs limit
PINNs for some real-time applications. Although some works have been proposed
to improve the training efficiency of PINNs, few consider the influence of
initialization. To this end, we propose a New Reptile initialization based
Physics-Informed Neural Network (NRPINN). The original Reptile algorithm is a
meta-learning initialization method based on labeled data. PINNs can be trained
with less labeled data or even without any labeled data by adding partial
differential equations (PDEs) as a penalty term into the loss function.
Inspired by this idea, we propose the new Reptile initialization to sample more
tasks from the parameterized PDEs and adapt the penalty term of the loss. The
new Reptile initialization can acquire initialization parameters from related
tasks by supervised, unsupervised, and semi-supervised learning. Then, PINNs
with initialization parameters can efficiently solve PDEs. Besides, the new
Reptile initialization can also be used for the variants of PINNs. Finally, we
demonstrate and verify the NRPINN considering both forward problems, including
solving Poisson, Burgers, and Schr\"odinger equations, as well as inverse
problems, where unknown parameters in the PDEs are estimated. Experimental
results show that the NRPINN training is much faster and achieves higher
accuracy than PINNs with other initialization methods.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、様々な科学計算問題を解くために広く用いられている。
しかし、大規模なトレーニングコストは、いくつかのリアルタイムアプリケーションのPINNを制限する。
PINNの訓練効率を改善するためにいくつかの研究が提案されているが、初期化の影響を考慮するものはほとんどない。
そこで本研究では, 物理学的不定形ニューラルネットワーク (nrpinn) を提案する。
original reptileアルゴリズムはラベル付きデータに基づくメタラーニング初期化手法である。
PINNは、損失関数にパーセンテージ項として偏微分方程式(PDE)を追加することで、ラベル付きデータが少ないか、ラベル付きデータなしでトレーニングすることができる。
このアイデアに触発されて、パラメータ化されたPDEからより多くのタスクをサンプリングし、損失のペナルティ項を適応する新しいReptile初期化を提案する。
新しいReptile初期化は、教師付き、教師なし、半教師付き学習によって、関連するタスクから初期化パラメータを取得することができる。
そして、初期化パラメータを持つPINNはPDEを効率的に解くことができる。
さらに、新しいReptile初期化はPINNの変種にも利用できる。
最後に、Poisson, Burgers, Schr\odinger方程式の解法や、PDEの未知のパラメータを推定する逆問題を含む前方問題の双方を考慮したNRPINNの実証および検証を行う。
実験の結果,NRPINNトレーニングは,他の初期化手法を用いたPINNよりもはるかに高速で精度が高いことがわかった。
関連論文リスト
- Equation identification for fluid flows via physics-informed neural networks [46.29203572184694]
回転流を伴う2次元バーガー方程式のパラメトリックスリープに基づく逆PINNに対する新しいベンチマーク問題を提案する。
本稿では,一階最適化と二階最適化を交互に行う新しい戦略が,パラメータ推定の典型的な一階最適化よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-08-30T13:17:57Z) - Improving PINNs By Algebraic Inclusion of Boundary and Initial Conditions [0.1874930567916036]
AI for Science」は、AI技術を用いた基本的な科学的問題を解決することを目的としている。
本研究では、トレーニング対象のモデルを単にニューラルネットワークから非線形変換に変更する可能性について検討する。
これにより、損失関数の項数は標準のPINN損失よりも減少する。
論文 参考訳(メタデータ) (2024-07-30T11:19:48Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - FO-PINNs: A First-Order formulation for Physics Informed Neural Networks [1.8874301050354767]
物理インフォームドニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、物理システムの応答をシミュレーションデータなしで学習するディープラーニングニューラルネットワークのクラスである。
PINNは前方および逆問題の解決に有効であるが、パラメータ化システムでは精度が大幅に低下する。
PDE損失関数の1次定式化を用いてトレーニングした1次物理学情報ニューラルネットワーク(FO-PINN)を提案する。
論文 参考訳(メタデータ) (2022-10-25T20:25:33Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Certified machine learning: A posteriori error estimation for
physics-informed neural networks [0.0]
PINNは、より小さなトレーニングセットに対して堅牢であることが知られ、より優れた一般化問題を導出し、より高速にトレーニングすることができる。
純粋にデータ駆動型ニューラルネットワークと比較してPINNを使うことは、トレーニング性能に好都合であるだけでなく、近似されたソリューションの品質に関する重要な情報を抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-31T14:23:04Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Gradient-enhanced physics-informed neural networks for forward and
inverse PDE problems [2.0062792633909026]
深層学習は物理情報ニューラルネットワーク(PINN)による偏微分方程式(PDE)の解法として有効であることが示されている。
PINNはPDE残基をニューラルネットワークの損失関数に埋め込んでおり、様々な前方および逆PDE問題の解決に成功している。
そこで本研究では, PINNの精度とトレーニング効率を向上させるために, 勾配型物理インフォームドニューラルネットワーク(gPINN)を提案する。
論文 参考訳(メタデータ) (2021-11-01T18:01:38Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。