論文の概要: CAN-PINN: A Fast Physics-Informed Neural Network Based on
Coupled-Automatic-Numerical Differentiation Method
- arxiv url: http://arxiv.org/abs/2110.15832v1
- Date: Fri, 29 Oct 2021 14:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 16:27:37.618561
- Title: CAN-PINN: A Fast Physics-Informed Neural Network Based on
Coupled-Automatic-Numerical Differentiation Method
- Title(参考訳): CAN-PINN:結合型自動数値微分法に基づく高速物理インフォームニューラルネットワーク
- Authors: Pao-Hsiung Chiu, Jian Cheng Wong, Chinchun Ooi, My Ha Dao, Yew-Soon
Ong
- Abstract要約: テイラー級数展開による隣り合う支持点と自動微分(AD)を結合する新しい物理情報ニューラルネットワーク(PINN)法を提案する。
can-PINNとラベル付けされた結合型自動数値微分フレームワークは、ADとNDの利点を統一し、ADベースのPINNよりも堅牢で効率的なトレーニングを提供する。
- 参考スコア(独自算出の注目度): 17.04611875126544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, novel physics-informed neural network (PINN) methods for
coupling neighboring support points and automatic differentiation (AD) through
Taylor series expansion are proposed to allow efficient training with improved
accuracy. The computation of differential operators required for PINNs loss
evaluation at collocation points are conventionally obtained via AD. Although
AD has the advantage of being able to compute the exact gradients at any point,
such PINNs can only achieve high accuracies with large numbers of collocation
points, otherwise they are prone to optimizing towards unphysical solution. To
make PINN training fast, the dual ideas of using numerical differentiation
(ND)-inspired method and coupling it with AD are employed to define the loss
function. The ND-based formulation for training loss can strongly link
neighboring collocation points to enable efficient training in sparse sample
regimes, but its accuracy is restricted by the interpolation scheme. The
proposed coupled-automatic-numerical differentiation framework, labeled as
can-PINN, unifies the advantages of AD and ND, providing more robust and
efficient training than AD-based PINNs, while further improving accuracy by up
to 1-2 orders of magnitude relative to ND-based PINNs. For a proof-of-concept
demonstration of this can-scheme to fluid dynamic problems, two
numerical-inspired instantiations of can-PINN schemes for the convection and
pressure gradient terms were derived to solve the incompressible Navier-Stokes
(N-S) equations. The superior performance of can-PINNs is demonstrated on
several challenging problems, including the flow mixing phenomena, lid driven
flow in a cavity, and channel flow over a backward facing step. The results
reveal that for challenging problems like these, can-PINNs can consistently
achieve very good accuracy whereas conventional AD-based PINNs fail.
- Abstract(参考訳): 本研究では,テイラー級数展開による近接する支持点と自動微分(AD)を結合する新しい物理情報ニューラルネットワーク(PINN)法を提案し,精度の向上を図った。
コロケーションポイントでのピン損失評価に必要な微分演算子の計算は、従来はadによって行われる。
AD は任意の点で正確な勾配を計算することができるという利点があるが、そのような PINN は多数のコロケーション点を持つ高い精度しか達成できない。
PINNのトレーニングを高速化するために,数値微分法(ND)とADを結合した2つのアイデアを用いて損失関数を定義する。
ndに基づくトレーニング損失の定式化は,隣接したコロケーションポイントを強く関連付けることで,スパースサンプルレジームでの効率的なトレーニングを可能にするが,その精度は補間スキームによって制限される。
can-PINNとラベル付けられ、ADとNDの利点を統一し、ADベースのPINNよりも堅牢で効率的なトレーニングを提供するとともに、NDベースのPINNと比較して最大1-2桁の精度を向上する。
流体力学問題に対するこのカンスキームの実証実証のために、対流と圧力勾配項に対するcan-PINNスキームの2つの数値的インスピレーションを導出し、非圧縮性ナビエ・ストークス(N-S)方程式を解く。
カンピンの優れた性能は, 流れ混合現象, キャビティ内の蓋駆動流れ, 逆向きステップ上の流路流れなど, いくつかの難解な問題に対して実証された。
その結果,これらの課題に対して,従来のADベースのPINNが失敗するのに対して,can-PINNは一貫して高い精度を達成できることがわかった。
関連論文リスト
- RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Domain decomposition-based coupling of physics-informed neural networks
via the Schwarz alternating method [0.0]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)の解を解き、推論するためのデータ駆動型ツールである。
本稿では,従来の数値モデルとPINNを相互に結合する手法として,シュワルツ交互法(Schwarz alternating method)を提案する。
論文 参考訳(メタデータ) (2023-11-01T01:59:28Z) - Adversarial Training for Physics-Informed Neural Networks [4.446564162927513]
本稿では,AT-PINN と呼ばれる PINN に対する敵的訓練戦略を提案する。
AT-PINNは、逆サンプルを用いてモデルを微調整することにより、PINNの堅牢性を高める。
我々は,マルチスケール係数の楕円型方程式,マルチピーク解のポアソン方程式,鋭解のバーガース方程式,アレン・カーンの方程式にAT-PINNを実装した。
論文 参考訳(メタデータ) (2023-10-18T08:28:43Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Failure-informed adaptive sampling for PINNs [5.723850818203907]
物理学インフォームドニューラルネットワーク(PINN)は、幅広い領域でPDEを解決する効果的な手法として登場した。
しかし、最近の研究では、異なるサンプリング手順でPINNの性能が劇的に変化することが示されている。
本稿では,信頼度分析の視点から,故障インフォームドPINNという適応的手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T13:34:41Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Multi-Objective Loss Balancing for Physics-Informed Deep Learning [0.0]
PINNを効果的に訓練するために、複数の競合損失関数の組み合わせを正しく重み付けする役割を観察する。
本稿では,ReLoBRaLoと呼ばれるPINNの自己適応的損失分散を提案する。
シミュレーションにより、ReLoBRaLoトレーニングは、他のバランシング手法によるPINNのトレーニングよりもはるかに高速で精度の高いことが示されている。
論文 参考訳(メタデータ) (2021-10-19T09:00:12Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。