論文の概要: Spectral Analysis of Hard-Constraint PINNs: The Spatial Modulation Mechanism of Boundary Functions
- arxiv url: http://arxiv.org/abs/2512.23295v1
- Date: Mon, 29 Dec 2025 08:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.441719
- Title: Spectral Analysis of Hard-Constraint PINNs: The Spatial Modulation Mechanism of Boundary Functions
- Title(参考訳): 硬質拘束型PINNのスペクトル解析:境界関数の空間変調機構
- Authors: Yuchen Xie, Honghang Chi, Haopeng Quan, Yahui Wang, Wei Wang, Yu Ma,
- Abstract要約: この研究は、バウンダリ関数$B$が、学習風景を根本的に変化させる乗法空間変調を導入することを明らかにしている。
HC-PINNのための厳密なニューラルタンジェントカーネル(NTK)フレームワークが確立され、明示的なカーネル構成法則が導かれる。
広範に使われている境界関数は必然的にスペクトル崩壊を誘発し、正確な境界満足度にもかかわらず最適化が停滞することを示した。
- 参考スコア(独自算出の注目度): 4.170072254495455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks with hard constraints (HC-PINNs) are increasingly favored for their ability to strictly enforce boundary conditions via a trial function ansatz $\tilde{u} = A + B \cdot N$, yet the theoretical mechanisms governing their training dynamics have remained unexplored. Unlike soft-constrained formulations where boundary terms act as additive penalties, this work reveals that the boundary function $B$ introduces a multiplicative spatial modulation that fundamentally alters the learning landscape. A rigorous Neural Tangent Kernel (NTK) framework for HC-PINNs is established, deriving the explicit kernel composition law. This relationship demonstrates that the boundary function $B(\vec{x})$ functions as a spectral filter, reshaping the eigenspectrum of the neural network's native kernel. Through spectral analysis, the effective rank of the residual kernel is identified as a deterministic predictor of training convergence, superior to classical condition numbers. It is shown that widely used boundary functions can inadvertently induce spectral collapse, leading to optimization stagnation despite exact boundary satisfaction. Validated across multi-dimensional benchmarks, this framework transforms the design of boundary functions from a heuristic choice into a principled spectral optimization problem, providing a solid theoretical foundation for geometric hard constraints in scientific machine learning.
- Abstract(参考訳): 強制約(HC-PINN)を持つ物理インフォームドニューラルネットワークは、試験関数 ansatz $\tilde{u} = A + B \cdot N$ を通じて境界条件を厳格に強制する能力に対して、ますます好まれている。
境界項が加法罰として作用するソフト制約の定式化とは異なり、バウンダリ関数$B$は、学習風景を根本的に変化させる乗法空間変調を導入する。
HC-PINNのための厳密なニューラルタンジェントカーネル(NTK)フレームワークが確立され、明示的なカーネル構成法則が導かれる。
この関係は、境界関数 $B(\vec{x})$ がスペクトルフィルタとして機能し、ニューラルネットワークのネイティブカーネルの固有スペクトルを再構成することを示した。
スペクトル分析により、残留核の有効ランクは、古典的条件数よりも優れた訓練収束の決定論的予測因子として同定される。
広範に使われている境界関数は必然的にスペクトル崩壊を誘発し、正確な境界満足度にもかかわらず最適化が停滞することを示した。
多次元のベンチマークで検証されたこのフレームワークは、境界関数の設計をヒューリスティックな選択から、原理化されたスペクトル最適化問題に変換する。
関連論文リスト
- A neural optimization framework for free-boundary diffeomorphic mapping problems and its applications [0.42970700836450487]
本稿では,LSQCエネルギーをマルチスケールメッシュ-スペクトルアーキテクチャに埋め込んだSBN(Spectral Beltrami Network)を提案する。
次に,SBN誘導最適化フレームワークであるSBN-Optを提案する。
論文 参考訳(メタデータ) (2025-11-12T03:43:28Z) - Generalization Bound of Gradient Flow through Training Trajectory and Data-dependent Kernel [55.82768375605861]
我々は、カーネル法における古典的ラデマッハ複雑性と整合する勾配流の一般化を確立する。
NTKのような静的カーネルとは異なり、LPKはトレーニング軌跡全体をキャプチャし、データと最適化の両方に適応する。
論文 参考訳(メタデータ) (2025-06-12T23:17:09Z) - Reliable and efficient inverse analysis using physics-informed neural networks with normalized distance functions and adaptive weight tuning [0.0]
PINNソリューションは境界条件の処理によって制限されることが多い。
適応距離場と正規化重みを組み合わせた統合フレームワークを提案する。
このフレームワークは、PINNを用いた逆解析のための信頼性と効率的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-04-25T05:39:09Z) - The Finite Element Neural Network Method: One Dimensional Study [0.0]
本研究は,ペトロフ・ガレルキン法(ペトロフ・ガレルキン法)の枠組みにおける有限要素ニューラルネットワーク法(FENNM)を紹介する。
FENNMは、微分方程式の重み付け残差を近似するために畳み込み演算を用いる。
これにより、従来の有限要素法(FEM)の解法と同様に、強制項と自然境界条件を損失関数に統合することができる。
論文 参考訳(メタデータ) (2025-01-21T21:39:56Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。