論文の概要: Accelerating Training Time with Feature Enforcing- Physics Informed
Neural Network (FE-PINN): Utilizing Boundary Conditions as Prior Knowledge
for Faster Convergence
- arxiv url: http://arxiv.org/abs/2308.08873v3
- Date: Wed, 27 Sep 2023 07:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 19:02:29.801598
- Title: Accelerating Training Time with Feature Enforcing- Physics Informed
Neural Network (FE-PINN): Utilizing Boundary Conditions as Prior Knowledge
for Faster Convergence
- Title(参考訳): 機能強化型物理情報ニューラルネットワーク(FE-PINN)による学習時間の高速化 : 境界条件を高速収束のための優先知識として活用する
- Authors: Mahyar Jahaninasab, Mohamad Ali Bijarchi
- Abstract要約: Feature Enforcecing Physics Informed Neural Network FEPINNは、ニューラルネットワークが境界条件を学習できるようにするデータフリーフレームワークである。
FE-PINNはシリンダー上の2次元フローとシリンダー上の2次元フローの入口速度を決定する逆問題という2つのベンチマークを解くために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this study, Feature Enforcing Physics Informed Neural Network FEPINN is
introduced, which is a data free framework that enables a neural network to
learn boundary conditions before solving continuity and momentum partial
differential equations PDEs. A new sampling approach is represented, which
selects domain points as a function of different initial weight states of
neural networks initialized with the Xavier scheme. The study hypothesizes that
using an initial weight state with lower variance is beneficial when learning
simple patterns, such as boundary conditions. After training the neural network
to learn boundary conditions, the complexity of the model is increased by
adding new layers on top of the neural network. FE-PINN is used to solve two
benchmarks, 2D flow over a cylinder and an inverse problem of determining the
inlet velocity for a 2D flow over a cylinder. It is found that FE-PINN trains
about two times faster than vanilla PINN for both benchmarks, even when the
vanilla PINN uses optimal weight values in the loss function obtained by random
search. Moreover, FE-PINN's loss function is balanced due to its prior
knowledge of boundary conditions, eliminating the need for loss weighting. For
instance, learning no slip boundary conditions on side walls with FE-PINN
before the main training loop is 574 times faster than loss weighting process
in vanilla PINN. In conclusion, FE-PINN offers a fast and accurate tool for
solving various PDEs across different fields.
- Abstract(参考訳): 本研究では,連続性と運動量偏微分方程式 PDE を解く前に,ニューラルネットワークが境界条件を学習できるデータフリーフレームワークであるFeature Enforcecing Physics Informed Neural Network FEPINNを導入する。
新しいサンプリングアプローチが表現され、Xavierスキームで初期化されたニューラルネットワークの初期重み状態の異なる関数としてドメインポイントを選択する。
本研究は, 境界条件などの単純なパターンを学習する際に, 分散度が低い初期重み状態を用いることが有用であると仮定した。
ニューラルネットワークをトレーニングして境界条件を学習すると、ニューラルネットワークの上に新しいレイヤを追加することで、モデルの複雑さが増大する。
FE-PINNはシリンダー上の2次元フローとシリンダー上の2次元フローの入口速度を決定する逆問題という2つのベンチマークを解くために用いられる。
FE-PINNは, ランダム探索により得られた損失関数において, バニラPINNが最適重み値を使用する場合でも, 両ベンチマークでバニラPINNの約2倍の速度でトレーニングを行う。
さらに、FE-PINNの損失関数は境界条件に関する事前の知識によりバランスが取れ、損失重み付けの必要がなくなる。
例えば、メイントレーニングループの前にFE-PINNで側壁のすべり境界条件を学習することは、バニラPINNの損失重み付けよりも574倍高速である。
結論として、FE-PINNは異なる分野にわたる様々なPDEを解決するための高速で正確なツールを提供する。
関連論文リスト
- Binary structured physics-informed neural networks for solving equations
with rapidly changing solutions [3.6415476576196055]
偏微分方程式(PDE)を解くための有望なアプローチとして、物理情報ニューラルネットワーク(PINN)が登場した。
本稿では、ニューラルネットワークコンポーネントとしてバイナリ構造化ニューラルネットワーク(BsNN)を用いる、バイナリ構造化物理インフォームドニューラルネットワーク(BsPINN)フレームワークを提案する。
BsPINNは、PINNよりも収束速度と精度が優れている。
論文 参考訳(メタデータ) (2024-01-23T14:37:51Z) - Robust Physics Informed Neural Networks [0.21756081703275998]
偏微分方程式 (PDE) を近似するために, 物理情報ニューラルネットワーク (RPINN) の頑健なバージョンを導入する。
我々は2つのラプラス問題と2つの空間次元における1つの対流拡散問題に対してRPINNアルゴリズムを検証した。
論文 参考訳(メタデータ) (2024-01-04T14:42:29Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - ST-PINN: A Self-Training Physics-Informed Neural Network for Partial
Differential Equations [13.196871939441273]
偏微分方程式 (Partial differential equations, PDE) は物理学や工学において重要な計算核である。
ディープラーニングの進歩により、物理インフォームドニューラルネットワーク(PINN)は、様々なアプリケーションで高速なPDE解決の可能性を示している。
本稿では,既存のPINNの低精度・収束問題に対処するため,自己学習型物理インフォームドニューラルネットワークST-PINNを提案する。
論文 参考訳(メタデータ) (2023-06-15T15:49:13Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - FO-PINNs: A First-Order formulation for Physics Informed Neural Networks [1.8874301050354767]
物理インフォームドニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、物理システムの応答をシミュレーションデータなしで学習するディープラーニングニューラルネットワークのクラスである。
PINNは前方および逆問題の解決に有効であるが、パラメータ化システムでは精度が大幅に低下する。
PDE損失関数の1次定式化を用いてトレーニングした1次物理学情報ニューラルネットワーク(FO-PINN)を提案する。
論文 参考訳(メタデータ) (2022-10-25T20:25:33Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Self-Adaptive Physics-Informed Neural Networks using a Soft Attention
Mechanism [0.0]
非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-09-07T04:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。