論文の概要: Stability Analysis of Physics-Informed Neural Networks via Variational Coercivity, Perturbation Bounds, and Concentration Estimates
- arxiv url: http://arxiv.org/abs/2506.13554v1
- Date: Mon, 16 Jun 2025 14:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.700555
- Title: Stability Analysis of Physics-Informed Neural Networks via Variational Coercivity, Perturbation Bounds, and Concentration Estimates
- Title(参考訳): 変動保磁力・摂動境界・濃度推定による物理インフォームニューラルネットワークの安定性解析
- Authors: Ronald Katende,
- Abstract要約: PINNは、サンプルコロケーション点上の残差に基づく損失を最小限に抑え、偏微分方程式(PDE)の近似解を導出する。
ネットワーク出力における有界摂動が、残留成分と教師付き損失成分の両方を通してどのように伝播するかを定量化する決定論的安定性境界を導出する。
この研究は、PINNに数学的に基礎を置き、実際に適用可能な安定性の枠組みを提供し、ロバストトレーニングにおける演算子構造、サンプリング設計、機能正則性の役割を明確にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a rigorous stability framework for Physics-Informed Neural Networks (PINNs) grounded in variational analysis, operator coercivity, and explicit perturbation theory. PINNs approximate solutions to partial differential equations (PDEs) by minimizing residual-based losses over sampled collocation points. We derive deterministic stability bounds that quantify how bounded perturbations in the network output propagate through both residual and supervised loss components. Probabilistic stability is established via McDiarmid's inequality, yielding non-asymptotic concentration bounds that link sampling variability to empirical loss fluctuations under minimal assumptions. Generalization from Sobolev-norm training loss to uniform approximation is analyzed using coercivity and Sobolev embeddings, leading to pointwise error control. The theoretical results apply to both scalar and vector-valued PDEs and cover composite loss formulations. Numerical experiments validate the perturbation sensitivity, sample complexity estimates, and Sobolev-to-uniform generalization bounds. This work provides a mathematically grounded and practically applicable stability framework for PINNs, clarifying the role of operator structure, sampling design, and functional regularity in robust training.
- Abstract(参考訳): 本研究では, 変動解析, 演算子保磁力, 明示摂動理論に基づく物理情報ニューラルネットワーク(PINN)の厳密な安定性の枠組みを開発する。
PINNは、サンプルコロケーション点上の残差に基づく損失を最小限に抑え、偏微分方程式(PDE)の近似解を導出する。
ネットワーク出力における有界摂動が、残留成分と教師付き損失成分の両方を通してどのように伝播するかを定量化する決定論的安定性境界を導出する。
確率的安定性はマクダイアルミドの不等式によって確立され、最小の仮定の下でサンプリング変数と経験的損失変動をリンクする非漸近的な濃度境界が得られる。
ソボレフ-ノルム訓練損失から一様近似への一般化を, 保磁力とソボレフ埋め込みを用いて解析し, ポイントワイズ誤差制御を実現する。
理論的結果は、スカラーおよびベクトル値PDEおよび被覆複合損失定式化の両方に適用できる。
数値実験により,摂動感度,サンプル複雑性推定値,ソボレフ-一様一般化境界値が検証された。
この研究は、PINNに数学的に基礎を置き、実用的に適用可能な安定性の枠組みを提供し、堅牢なトレーニングにおける演算子構造、サンプリング設計、機能正則性の役割を明確にする。
関連論文リスト
- Wasserstein Distributionally Robust Nonparametric Regression [9.65010022854885]
本稿では、ワッサーシュタイン分布性非パラメトリック推定器の一般化特性について検討する。
我々は,過度の局地的最悪のリスクに対して,非漸近的エラー境界を確立する。
提案した推定器のロバスト性はシミュレーション研究を通じて評価し,MNISTデータセットへの適用例を示した。
論文 参考訳(メタデータ) (2025-05-12T18:07:37Z) - Unified theoretical guarantees for stability, consistency, and convergence in neural PDE solvers from non-IID data to physics-informed networks [0.0]
現実的なトレーニング条件下では,ニューラルネットワークの安定性,一貫性,収束性に対処する統一的な理論的枠組みを確立する。
従属データを用いた標準教師付き学習では、勾配法に対して一様安定性境界を導出する。
ヘテロジニアスデータを用いたフェデレーション学習では、曲率認識の集約と情報理論の分岐によるモデル不整合性の定量化を行う。
論文 参考訳(メタデータ) (2024-09-08T08:48:42Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - A PDE-based Explanation of Extreme Numerical Sensitivities and Edge of Stability in Training Neural Networks [12.355137704908042]
勾配降下型深層ネットワーク(SGD)の現在の訓練実践における抑制的数値不安定性を示す。
我々は、偏微分方程式(PDE)の数値解析を用いて理論的枠組みを提示し、畳み込みニューラルネットワーク(CNN)の勾配降下PDEを分析する。
これはCNNの降下に伴う非線形PDEの結果であり、離散化のステップサイズを過度に運転すると局所線形化が変化し、安定化効果がもたらされることを示す。
論文 参考訳(メタデータ) (2022-06-04T14:54:05Z) - On Convergence of Training Loss Without Reaching Stationary Points [62.41370821014218]
ニューラルネットワークの重み変数は、損失関数の勾配が消える定常点に収束しないことを示す。
エルゴード理論の力学系に基づく新しい視点を提案する。
論文 参考訳(メタデータ) (2021-10-12T18:12:23Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。