論文の概要: Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next
- arxiv url: http://arxiv.org/abs/2201.05624v1
- Date: Fri, 14 Jan 2022 19:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:08:15.247562
- Title: Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next
- Title(参考訳): 物理インフォームドニューラルネットワークによる科学機械学習:我々は今どこにいて、次は何になるのか
- Authors: Salvatore Cuomo, Vincenzo Schiano di Cola, Fabio Giampaolo, Gianluigi
Rozza, Maizar Raissi and Francesco Piccialli
- Abstract要約: physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
- 参考スコア(独自算出の注目度): 5.956366179544257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physic-Informed Neural Networks (PINN) are neural networks (NNs) that encode
model equations, like Partial Differential Equations (PDE), as a component of
the neural network itself. PINNs are nowadays used to solve PDEs, fractional
equations, and integral-differential equations. This novel methodology has
arisen as a multi-task learning framework in which a NN must fit observed data
while reducing a PDE residual. This article provides a comprehensive review of
the literature on PINNs: while the primary goal of the study was to
characterize these networks and their related advantages and disadvantages, the
review also attempts to incorporate publications on a larger variety of issues,
including physics-constrained neural networks (PCNN), where the initial or
boundary conditions are directly embedded in the NN structure rather than in
the loss functions. The study indicates that most research has focused on
customizing the PINN through different activation functions, gradient
optimization techniques, neural network structures, and loss function
structures. Despite the wide range of applications for which PINNs have been
used, by demonstrating their ability to be more feasible in some contexts than
classical numerical techniques like Finite Element Method (FEM), advancements
are still possible, most notably theoretical issues that remain unresolved.
- Abstract(参考訳): physic-informed neural networks(pinn)は、ニューラルネットワーク自体の一部として偏微分方程式(pde)のようなモデル方程式を符号化するニューラルネットワーク(nn)である。
PINNは現在、PDE、分数方程式、積分微分方程式を解くために使われている。
この手法は、NNがPDE残差を低減しつつ観測データに適合しなければならないマルチタスク学習フレームワークとして登場した。
本研究の主な目的は、これらのネットワークとその関連する利点と欠点を特徴づけることであったが、このレビューは、損失関数ではなく、NN構造に直接初期条件または境界条件が埋め込まれる物理制約ニューラルネットワーク(PCNN)を含む、より広範な問題に関する出版を組み込むことも試みている。
この研究は、ほとんどの研究が、異なるアクティベーション関数、勾配最適化技術、ニューラルネットワーク構造、損失関数構造によるPINNのカスタマイズに焦点を当てていることを示している。
PINNが使われている幅広い応用にもかかわらず、有限要素法(FEM)のような古典的な数値技術よりも、いくつかの文脈で実現可能であることを示すことによって、進歩は依然として可能であり、最も顕著な理論上の問題は未解決のままである。
関連論文リスト
- Element-wise Multiplication Based Deeper Physics-Informed Neural Networks [1.8554335256160261]
PINNは偏微分方程式(PDE)を解くための有望な枠組みである
表現力の欠如と病理疾患は、複雑なPDEにPINNを適用するのを防ぐのに役立つ。
本稿では,これらの問題を解決するために,より深い物理インフォームドニューラルネットワーク(Deeper-PINN)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:27:52Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。