論文の概要: Physics-Informed Neural Networks (PINNs) for Parameterized PDEs: A
Metalearning Approach
- arxiv url: http://arxiv.org/abs/2110.13361v1
- Date: Tue, 26 Oct 2021 02:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 16:13:35.925687
- Title: Physics-Informed Neural Networks (PINNs) for Parameterized PDEs: A
Metalearning Approach
- Title(参考訳): パラメータ化PDEのための物理インフォームドニューラルネットワーク(PINN)-メタラーニングアプローチ
- Authors: Michael Penwarden, Shandian Zhe, Akil Narayan, Robert M. Kirby
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)を識別する手段である
本稿では,モデルに依存しないメタラーニングについて調査し,PINNに適用したモデル認識メタラーニングについて考察する。
- 参考スコア(独自算出の注目度): 13.590496719224987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) as a means of discretizing partial
differential equations (PDEs) are garnering much attention in the Computational
Science and Engineering (CS&E) world. At least two challenges exist for PINNs
at present: an understanding of accuracy and convergence characteristics with
respect to tunable parameters and identification of optimization strategies
that make PINNs as efficient as other computational science tools. The cost of
PINNs training remains a major challenge of Physics-informed Machine Learning
(PiML) -- and, in fact, machine learning (ML) in general. This paper is meant
to move towards addressing the latter through the study of PINNs for
parameterized PDEs. Following the ML world, we introduce metalearning of PINNs
for parameterized PDEs. By introducing metalearning and transfer learning
concepts, we can greatly accelerate the PINNs optimization process. We present
a survey of model-agnostic metalearning, and then discuss our model-aware
metalearning applied to PINNs. We provide theoretically motivated and
empirically backed assumptions that make our metalearning approach possible. We
then test our approach on various canonical forward parameterized PDEs that
have been presented in the emerging PINNs literature.
- Abstract(参考訳): 偏微分方程式(PDE)を離散化するための物理インフォームドニューラルネットワーク(PINN)は、CS&E(Computational Science and Engineering)の世界において注目されている。
現在、PINNには、調整可能なパラメータに対する精度と収束特性の理解と、PINNを他の計算科学ツールと同じくらい効率的にする最適化戦略の同定の2つの課題が存在する。
pinnsトレーニングのコストは、物理インフォームド機械学習(piml)や、マシンラーニング(ml)全般において、依然として大きな課題となっている。
本論文は、パラメータ化PDEのためのPINNの研究を通して、後者に対処することを目的としている。
ML の世界に続き,パラメータ化 PDE のための PINN のメタラーニングを導入する。
メタラーニングとトランスファー学習の概念を導入することで、pinns最適化プロセスを大幅に加速することができる。
本稿では,モデル非依存型メタラーニングに関する調査を行い,pinnに適用したモデル認識型メタラーニングについて述べる。
メタラーニングアプローチを可能にする理論的な動機付けと実証的な裏付けを提供する。
次に、新しいPINN文献で提示された様々な標準前方パラメータ化PDEについて、本手法を検証した。
関連論文リスト
- Hypernetwork-based Meta-Learning for Low-Rank Physics-Informed Neural
Networks [24.14254861023394]
本研究では,物理インフォームドニューラルネットワーク (PINN) がそのような解法の一つとして考えられる可能性を秘めた経路を提案する。
PINNは、ディープラーニングと科学計算の適切な統合を開拓してきたが、ニューラルネットワークの反復的な時間的トレーニングを必要としている。
本稿では,数百のモデルパラメータと関連するハイパーネットワークに基づくメタ学習アルゴリズムを含む軽量な低ランクPINNを提案する。
論文 参考訳(メタデータ) (2023-10-14T08:13:43Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - AutoPINN: When AutoML Meets Physics-Informed Neural Networks [30.798918516407376]
PINNは、観測可能な変数を通じて、物理的なツールで観測できないクリティカルパラメータを推定できる。
既存のPINNは手動で設計されることが多く、時間を要するため、最適以下の性能につながる可能性がある。
本稿では,AutoMLとPINNを組み合わせることで,PINNの自動設計を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T03:44:08Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。