論文の概要: Replacing Automatic Differentiation by Sobolev Cubatures fastens Physics
Informed Neural Nets and strengthens their Approximation Power
- arxiv url: http://arxiv.org/abs/2211.15443v1
- Date: Wed, 23 Nov 2022 11:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 14:14:59.439515
- Title: Replacing Automatic Differentiation by Sobolev Cubatures fastens Physics
Informed Neural Nets and strengthens their Approximation Power
- Title(参考訳): ソボレフキューバスによる自動微分の置き換えによる物理インフォームニューラルネットの高速化と近似力の強化
- Authors: Juan Esteban Suarez Cardona and Michael Hecht
- Abstract要約: 本稿では,物理インフォームド・ニューラルネット(PINN)のトレーニングに適用可能な,変分損失の新たな近似クラスを提案する。
損失計算は、自動微分(A.D.)を置き換えるソボレフキュウチャー(Sobolev cubatures)と呼ばれるガウス=ルジャンドルキュウチャーの拡張に依存する。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel class of approximations for variational losses, being
applicable for the training of physics-informed neural nets (PINNs). The loss
formulation reflects classic Sobolev space theory for partial differential
equations and their weak formulations. The loss computation rests on an
extension of Gauss-Legendre cubatures, we term Sobolev cubatures, replacing
automatic differentiation (A.D.). We prove the runtime complexity of training
the resulting Soblev-PINNs (SC-PINNs) to be less than required by PINNs relying
on A.D. On top of one-to-two order of magnitude speed-up the SC-PINNs are
demonstrated to achieve closer solution approximations for prominent forward
and inverse PDE problems than established PINNs achieve.
- Abstract(参考訳): 本稿では,ニューラルネット(pinns)の学習に適用可能な,変動損失に対する新しい近似のクラスを提案する。
損失定式化は、偏微分方程式とその弱定式化に対する古典的なソボレフ空間理論を反映している。
損失計算は、自動微分(A.D.)を置き換えるソボレフキュウチャー(Sobolev cubatures)と呼ばれるガウス=ルゲンドルキュウチャーの拡張に依存する。
その結果得られたsoblev-pinns (sc-pinns) は,1桁から2桁の速度アップに加えて,a.d.に依存するpinnによって要求されるよりも少ない精度でトレーニングできることを,sc-pinnsが確立されたpinnsよりも大きな前方および逆pde問題に対してより密接な解近似を達成することを実証した。
関連論文リスト
- General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Collocation-based Robust Variational Physics-Informed Neural Networks (CRVPINN) [0.0]
物理インフォームドニューラルネットワーク(PINN)は部分微分方程式(PDE)の解法として成功している
Robust Variational Physics-Informed Neural Networks (RVPINNs) の最近の研究は、基礎となる連続空間のノルムを離散レベルに便利に翻訳することの重要性を強調している。
本研究ではRVPINNの実装を加速し、元のPINNと同じ精神を持つ点配置方式でスパースグラム行列のLU分解を確立する。
論文 参考訳(メタデータ) (2024-01-04T14:42:29Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Reduced-PINN: An Integration-Based Physics-Informed Neural Networks for
Stiff ODEs [0.0]
物理インフォームドニューラルネットワーク(PINN)は、最近、前方および逆問題の両方を解決する能力により、多くの注目を集めている。
そこで我々は, PINN の高次積分法を用いて, 硬質化学動力学を解ける新しい PINN アーキテクチャ, Reduced-PINN を提案する。
論文 参考訳(メタデータ) (2022-08-23T09:20:42Z) - Physics-Informed Neural Network Method for Parabolic Differential
Equations with Sharply Perturbed Initial Conditions [68.8204255655161]
急激な摂動初期条件を持つパラボラ問題に対する物理インフォームドニューラルネットワーク(PINN)モデルを開発した。
ADE解の局所的な大きな勾配は(PINNでよく見られる)ラテンハイパーキューブで方程式の残余の高効率なサンプリングを行う。
本稿では,他の方法により選択した量よりも精度の高いPINNソリューションを生成する損失関数における重みの基準を提案する。
論文 参考訳(メタデータ) (2022-08-18T05:00:24Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Enhanced Physics-Informed Neural Networks with Augmented Lagrangian
Relaxation Method (AL-PINNs) [1.7403133838762446]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)の解の強力な近似器である
PINN(AL-PINN)のための拡張ラグランジアン緩和法を提案する。
AL-PINNは、最先端の適応的損失分散アルゴリズムと比較して、相対誤差がはるかに小さいことを様々な数値実験で示している。
論文 参考訳(メタデータ) (2022-04-29T08:33:11Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Accelerating Physics-Informed Neural Network Training with Prior
Dictionaries [7.035456567972667]
我々は、先行辞書に基づく物理情報ニューラルネットワーク(PD-PINN)と呼ばれる変種を提案する。
PD-PINNはタスクの表現力を向上し、辞書が提供する特徴を捉えるのに役立つ。
特定の穏やかな条件下では、ニューラルネットワークによる予測誤差は、予測されたPDEの損失と境界条件によって境界付けられることが証明された。
論文 参考訳(メタデータ) (2020-04-17T10:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。