論文の概要: Stabilized Adaptive Loss and Residual-Based Collocation for Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2603.03224v1
- Date: Tue, 03 Mar 2026 18:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.917912
- Title: Stabilized Adaptive Loss and Residual-Based Collocation for Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークの安定化適応損失と残差に基づくコロケーション
- Authors: Divyavardhan Singh, Shubham Kamble, Dimple Sonone, Kishor Upla,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式を解くためのメッシュフリーな代替手段として認識されている。
PINNには、不均衡なトレーニングやソリューションの不正確さなど、制限がある。
- 参考スコア(独自算出の注目度): 0.0654051537828115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have been recognized as a mesh-free alternative to solve partial differential equations where physics information is incorporated. However, in dealing with problems characterized by high stiffness or shock-dominated dynamics, traditional PINNs have been found to have limitations, including unbalanced training and inaccuracy in solution, even with small physics residuals. In this research, we seek to address these limitations using the viscous Burgers' equation with low viscosity and the Allen-Cahn equation as test problems. In addressing unbalanced training, we have developed a new adaptive loss balancing scheme using smoothed gradient norms to ensure satisfaction of initial and boundary conditions. Further, to address inaccuracy in the solution, we have developed an adaptive residual-based collocation scheme to improve the accuracy of solutions in the regions with high physics residuals. The proposed new approach significantly improves solution accuracy with consistent satisfaction of physics residuals. For instance, in the case of Burgers' equation, the relative L2 error is reduced by about 44 percent compared to traditional PINNs, while for the Allen-Cahn equation, the relative L2 error is reduced by approximately 70 percent. Additionally, we show the trustworthy solution comparison of the proposed method using a robust finite difference solver.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、物理情報が組み込まれた偏微分方程式を解くためのメッシュフリーな代替手段として認識されている。
しかし、高剛性や衝撃に支配される力学によって特徴づけられる問題に対処する際、従来のPINNには、小さな物理学的残留物であっても、不均衡なトレーニングや解の不正確さを含む制限があることが判明した。
本研究では, 粘度が低いバーガース方程式とアレン・カーンの方程式を試験問題として用いて, これらの限界に対処することを試みる。
不均衡なトレーニングに対処するために、スムーズな勾配ノルムを用いた新しい適応的損失分散手法を開発し、初期条件と境界条件の満足度を確保する。
さらに,解の不正確性に対処するため,高物理残差領域における解の精度を向上させるための適応的残差に基づくコロケーション手法を開発した。
提案手法は,物理残留物の一貫した満足度で解の精度を大幅に向上させる。
例えば、バーガースの方程式の場合、相対的なL2誤差は従来のPINNと比べて約44%減少し、アレン・カーン方程式では相対的なL2誤差はおよそ70%減少する。
さらに,ロバストな有限差分解法を用いて提案手法の信頼性の高い解の比較を行った。
関連論文リスト
- NewPINNs: Physics-Informing Neural Networks Using Conventional Solvers for Partial Differential Equations [6.108807911620144]
ニューラルネットワークと従来の数値解法を結合する物理情報処理学習フレームワークであるNewPINNを紹介する。
NewPINNは、ソルバを直接トレーニングループに統合し、ソルバ一貫性による学習目標を定義する。
本稿では, 有限体積, 有限要素, スペクトル解法を含む複数前方および逆問題に対する提案手法の有効性を示す。
論文 参考訳(メタデータ) (2026-01-23T22:34:57Z) - Convolution-weighting method for the physics-informed neural network: A Primal-Dual Optimization Perspective [14.65008276932511]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く用いられている
PINNは一般に有限個の点を用いて最適化され、収束と精度を保証する上で大きな課題となる。
そこで本稿では, 減量関数に対する重み付けを, 孤立点から連続近傍領域への適応的に変更する手法を提案する。
論文 参考訳(メタデータ) (2025-06-24T17:13:51Z) - Dual-Balancing for Physics-Informed Neural Networks [5.8096456298528745]
偏微分方程式(PDE)を解くための新しい学習パラダイムとして、物理情報ニューラルネットワーク(PINN)が登場した。
PINNは、難解な多目的最適化の問題のため、精度が悪く、収束が遅い。
本稿では,バランシングとイントラバランシングを統合し,損失重みを動的に調整する新しいDual-Balanced PINN(DB-PINN)を提案する。
論文 参考訳(メタデータ) (2025-05-16T11:00:54Z) - Self-adaptive weights based on balanced residual decay rate for physics-informed neural networks and deep operator networks [0.46664938579243564]
物理インフォームド・ディープ・ラーニングは偏微分方程式を解くための有望な代替手段として登場した。
複雑な問題に対して、これらのネットワークをトレーニングすることは依然として困難であり、しばしば不満足な精度と効率をもたらす。
本稿では,異なるトレーニングポイント間で残留減衰率のバランスをとる点適応重み付け法を提案する。
論文 参考訳(メタデータ) (2024-06-28T00:53:48Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Physics-Informed Neural Network Method for Parabolic Differential
Equations with Sharply Perturbed Initial Conditions [68.8204255655161]
急激な摂動初期条件を持つパラボラ問題に対する物理インフォームドニューラルネットワーク(PINN)モデルを開発した。
ADE解の局所的な大きな勾配は(PINNでよく見られる)ラテンハイパーキューブで方程式の残余の高効率なサンプリングを行う。
本稿では,他の方法により選択した量よりも精度の高いPINNソリューションを生成する損失関数における重みの基準を提案する。
論文 参考訳(メタデータ) (2022-08-18T05:00:24Z) - Enhanced Physics-Informed Neural Networks with Augmented Lagrangian
Relaxation Method (AL-PINNs) [1.7403133838762446]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)の解の強力な近似器である
PINN(AL-PINN)のための拡張ラグランジアン緩和法を提案する。
AL-PINNは、最先端の適応的損失分散アルゴリズムと比較して、相対誤差がはるかに小さいことを様々な数値実験で示している。
論文 参考訳(メタデータ) (2022-04-29T08:33:11Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。