論文の概要: Accelerating Physics-Informed Neural Network Training with Prior
Dictionaries
- arxiv url: http://arxiv.org/abs/2004.08151v2
- Date: Fri, 29 May 2020 02:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 12:40:35.018902
- Title: Accelerating Physics-Informed Neural Network Training with Prior
Dictionaries
- Title(参考訳): 先行辞書を用いた物理形ニューラルネットワーク学習の高速化
- Authors: Wei Peng, Weien Zhou, Jun Zhang, Wen Yao
- Abstract要約: 我々は、先行辞書に基づく物理情報ニューラルネットワーク(PD-PINN)と呼ばれる変種を提案する。
PD-PINNはタスクの表現力を向上し、辞書が提供する特徴を捉えるのに役立つ。
特定の穏やかな条件下では、ニューラルネットワークによる予測誤差は、予測されたPDEの損失と境界条件によって境界付けられることが証明された。
- 参考スコア(独自算出の注目度): 7.035456567972667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) can be regarded as general-purpose
PDE solvers, but it might be slow to train PINNs on particular problems, and
there is no theoretical guarantee of corresponding error bounds. In this
manuscript, we propose a variant called Prior Dictionary based Physics-Informed
Neural Networks (PD-PINNs). Equipped with task-dependent dictionaries, PD-PINNs
enjoy enhanced representation power on the tasks, which helps to capture
features provided by dictionaries so that the proposed neural networks can
achieve faster convergence in the process of training. In various numerical
simulations, compared with existing PINN methods, combining prior dictionaries
can significantly enhance convergence speed. In terms of theory, we obtain the
error bounds applicable to PINNs and PD-PINNs for solving elliptic partial
differential equations of second order. It is proved that under certain mild
conditions, the prediction error made by neural networks can be bounded by
expected loss of PDEs and boundary conditions.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は汎用PDEソルバと見なすことができるが、特定の問題に対してPINNを訓練するのは遅く、対応するエラー境界の理論的保証はない。
本稿では,先行辞書型物理インフォームドニューラルネットワーク(pd-pinns)と呼ばれる手法を提案する。
タスク依存辞書を装備したPD-PINNは、タスクの表現力を向上し、辞書が提供する特徴をキャプチャして、提案したニューラルネットワークがトレーニングプロセスにおいてより高速な収束を実現するのに役立つ。
様々な数値シミュレーションにおいて、既存のpinn法と比較して、先行辞書の組み合わせは収束速度を大幅に向上させることができる。
理論の観点からは、2次楕円偏微分方程式の解法として PINN や PD-PINN に適用できる誤差境界を求める。
特定の穏やかな条件下では、ニューラルネットワークによる予測誤差は、予測されたPDEの損失と境界条件によって境界付けられることが証明された。
関連論文リスト
- Element-wise Multiplication Based Deeper Physics-Informed Neural Networks [1.8554335256160261]
PINNは偏微分方程式(PDE)を解くための有望な枠組みである
表現力の欠如と病理疾患は、複雑なPDEにPINNを適用するのを防ぐのに役立つ。
本稿では,これらの問題を解決するために,より深い物理インフォームドニューラルネットワーク(Deeper-PINN)を提案する。
論文 参考訳(メタデータ) (2024-06-06T15:27:52Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Replacing Automatic Differentiation by Sobolev Cubatures fastens Physics
Informed Neural Nets and strengthens their Approximation Power [0.6091702876917279]
本稿では,物理インフォームド・ニューラルネット(PINN)のトレーニングに適用可能な,変分損失の新たな近似クラスを提案する。
損失計算は、自動微分(A.D.)を置き換えるソボレフキュウチャー(Sobolev cubatures)と呼ばれるガウス=ルジャンドルキュウチャーの拡張に依存する。
論文 参考訳(メタデータ) (2022-11-23T11:23:08Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next [5.956366179544257]
physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
論文 参考訳(メタデータ) (2022-01-14T19:05:44Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。