論文の概要: Accelerating Training Time with Feature Enforcing- Physics Informed
Neural Network (FE-PINN): Utilizing Boundary Conditions as Prior Knowledge
for Faster Convergence
- arxiv url: http://arxiv.org/abs/2308.08873v3
- Date: Wed, 27 Sep 2023 07:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 19:02:29.801598
- Title: Accelerating Training Time with Feature Enforcing- Physics Informed
Neural Network (FE-PINN): Utilizing Boundary Conditions as Prior Knowledge
for Faster Convergence
- Title(参考訳): 機能強化型物理情報ニューラルネットワーク(FE-PINN)による学習時間の高速化 : 境界条件を高速収束のための優先知識として活用する
- Authors: Mahyar Jahaninasab, Mohamad Ali Bijarchi
- Abstract要約: Feature Enforcecing Physics Informed Neural Network FEPINNは、ニューラルネットワークが境界条件を学習できるようにするデータフリーフレームワークである。
FE-PINNはシリンダー上の2次元フローとシリンダー上の2次元フローの入口速度を決定する逆問題という2つのベンチマークを解くために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this study, Feature Enforcing Physics Informed Neural Network FEPINN is
introduced, which is a data free framework that enables a neural network to
learn boundary conditions before solving continuity and momentum partial
differential equations PDEs. A new sampling approach is represented, which
selects domain points as a function of different initial weight states of
neural networks initialized with the Xavier scheme. The study hypothesizes that
using an initial weight state with lower variance is beneficial when learning
simple patterns, such as boundary conditions. After training the neural network
to learn boundary conditions, the complexity of the model is increased by
adding new layers on top of the neural network. FE-PINN is used to solve two
benchmarks, 2D flow over a cylinder and an inverse problem of determining the
inlet velocity for a 2D flow over a cylinder. It is found that FE-PINN trains
about two times faster than vanilla PINN for both benchmarks, even when the
vanilla PINN uses optimal weight values in the loss function obtained by random
search. Moreover, FE-PINN's loss function is balanced due to its prior
knowledge of boundary conditions, eliminating the need for loss weighting. For
instance, learning no slip boundary conditions on side walls with FE-PINN
before the main training loop is 574 times faster than loss weighting process
in vanilla PINN. In conclusion, FE-PINN offers a fast and accurate tool for
solving various PDEs across different fields.
- Abstract(参考訳): 本研究では,連続性と運動量偏微分方程式 PDE を解く前に,ニューラルネットワークが境界条件を学習できるデータフリーフレームワークであるFeature Enforcecing Physics Informed Neural Network FEPINNを導入する。
新しいサンプリングアプローチが表現され、Xavierスキームで初期化されたニューラルネットワークの初期重み状態の異なる関数としてドメインポイントを選択する。
本研究は, 境界条件などの単純なパターンを学習する際に, 分散度が低い初期重み状態を用いることが有用であると仮定した。
ニューラルネットワークをトレーニングして境界条件を学習すると、ニューラルネットワークの上に新しいレイヤを追加することで、モデルの複雑さが増大する。
FE-PINNはシリンダー上の2次元フローとシリンダー上の2次元フローの入口速度を決定する逆問題という2つのベンチマークを解くために用いられる。
FE-PINNは, ランダム探索により得られた損失関数において, バニラPINNが最適重み値を使用する場合でも, 両ベンチマークでバニラPINNの約2倍の速度でトレーニングを行う。
さらに、FE-PINNの損失関数は境界条件に関する事前の知識によりバランスが取れ、損失重み付けの必要がなくなる。
例えば、メイントレーニングループの前にFE-PINNで側壁のすべり境界条件を学習することは、バニラPINNの損失重み付けよりも574倍高速である。
結論として、FE-PINNは異なる分野にわたる様々なPDEを解決するための高速で正確なツールを提供する。
関連論文リスト
- A third-order finite difference weighted essentially non-oscillatory scheme with shallow neural network [9.652617666391926]
双曲保存法則のニューラルネットワークに基づく有限差分重み付き本質的に非振動(WENO)方式を導入する。
平均二乗誤差と平均二乗誤差の2つの損失関数を用いて、WENO3-JS重みをラベルとして計算する。
これらのWENO3-SNNスキームは, WENO3-JSとWENO3-Zのシミュレーションと比較して, 1次元実例で優れた結果を示し, 2次元実例で改善された挙動を示した。
論文 参考訳(メタデータ) (2024-07-08T18:55:57Z) - Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Collocation-based Robust Variational Physics-Informed Neural Networks (CRVPINN) [0.0]
物理インフォームドニューラルネットワーク(PINN)は部分微分方程式(PDE)の解法として成功している
Robust Variational Physics-Informed Neural Networks (RVPINNs) の最近の研究は、基礎となる連続空間のノルムを離散レベルに便利に翻訳することの重要性を強調している。
本研究ではRVPINNの実装を加速し、元のPINNと同じ精神を持つ点配置方式でスパースグラム行列のLU分解を確立する。
論文 参考訳(メタデータ) (2024-01-04T14:42:29Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Provable Acceleration of Nesterov's Accelerated Gradient Method over Heavy Ball Method in Training Over-Parameterized Neural Networks [12.475834086073734]
1次勾配法はニューラルネットワークのトレーニングに広く用いられている。
近年の研究では、最初のニューラルオーダー法が世界最小収束を達成することができることが証明されている。
論文 参考訳(メタデータ) (2022-08-08T07:13:26Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。