論文の概要: Mask-PINNs: Regulating Feature Distributions in Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2505.06331v2
- Date: Fri, 20 Jun 2025 13:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 14:57:51.811849
- Title: Mask-PINNs: Regulating Feature Distributions in Physics-Informed Neural Networks
- Title(参考訳): Mask-PINN:物理インフォームドニューラルネットワークにおける特徴分布の制御
- Authors: Feilong Jiang, Xiaonan Hou, Jianqiao Ye, Min Xia,
- Abstract要約: Mask-PINNは、内部の特徴分布を、隠された層にわたってポイントワイズで適用されたスムーズで学習可能なマスク機能を通じて制御する。
予測精度,収束安定性,ロバスト性に一貫した改善を示し,ベースラインモデルよりもL2誤差を最大2桁まで低減した。
- 参考スコア(独自算出の注目度): 1.6984490081106065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have emerged as a powerful framework for solving partial differential equations (PDEs) by embedding physical laws directly into the loss function. However, effective training of PINNs remains challenging due to internal covariate shift, which destabilizes feature distributions and impairs model expressiveness. While normalization techniques like Batch Normalization and Layer Normalization are standard remedies in deep learning, they disrupt the pointwise input-output mappings critical to preserving the physical consistency in PINNs. In this work, we introduce Mask-PINNs, a novel architecture that regulates internal feature distributions through a smooth, learnable mask function applied pointwise across hidden layers. Unlike conventional normalization methods, the proposed mask function preserves the deterministic nature of input-output relationships while suppressing activation drift and saturation. Theoretically, we demonstrate that Mask-PINNs control feature spread near initialization by attenuating gradient variance growth through a tailored modulation mechanism. Empirically, we validate the method on multiple PDE benchmarks across diverse activation functions. Our results show consistent improvements in prediction accuracy, convergence stability, and robustness, with relative L2 errors reduced by up to two orders of magnitude over baseline models. Furthermore, we demonstrate that Mask-PINNs enable the effective use of wider networks, overcoming a key limitation in existing PINN frameworks.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、物理法則を直接損失関数に埋め込むことで偏微分方程式(PDE)を解くための強力なフレームワークとして登場した。
しかし、PINNの効果的なトレーニングは、特徴分布の不安定化とモデル表現性を損なう内部共変量シフトのため、依然として困難である。
バッチ正規化やレイヤ正規化といった正規化技術はディープラーニングの標準的な治療法である一方で、PINNの物理的一貫性を維持する上で重要なポイントワイドな入出力マッピングを妨害する。
本研究では,隠れた層に対して,スムーズで学習可能なマスク関数を用いて内部特徴分布を制御する新しいアーキテクチャであるMask-PINNを紹介する。
従来の正規化法とは異なり,提案したマスク関数は,アクティベーションドリフトや飽和を抑制しつつ,入力-出力関係の決定論的性質を保っている。
理論的には,Mask-PINNの制御特性が,調整変調機構による勾配分散成長を減衰させることにより初期化付近に広がることを示した。
実験により,様々なアクティベーション関数にまたがる複数のPDEベンチマークにおいて,本手法の有効性を検証した。
その結果, 予測精度, 収束安定性, ロバスト性は安定的に向上し, 相対的なL2誤差はベースラインモデルよりも最大2桁まで低減された。
さらに、Mask-PINNは、既存のPINNフレームワークにおいて重要な制限を克服し、より広範なネットワークを効果的に活用できることを実証する。
関連論文リスト
- HyResPINNs: Hybrid Residual Networks for Adaptive Neural and RBF Integration in Solving PDEs [22.689531776611084]
本稿では,標準ニューラルネットワークと放射基底関数ネットワークを統合した適応型ハイブリッド残差ブロックを特徴とする新しいPINNであるHyResPINNを紹介する。
HyResPINNsの特徴は、各残差ブロック内で適応的な組み合わせパラメータを使用することで、ニューラルネットワークとRBFネットワークの動的重み付けを可能にすることである。
論文 参考訳(メタデータ) (2024-10-04T16:21:14Z) - Residual resampling-based physics-informed neural network for neutron diffusion equations [7.105073499157097]
中性子拡散方程式は原子炉の解析において重要な役割を果たす。
従来のPINNアプローチでは、完全に接続されたネットワーク(FCN)アーキテクチャを利用することが多い。
R2-PINNは、現在の方法に固有の制限を効果的に克服し、中性子拡散方程式のより正確で堅牢な解を提供する。
論文 参考訳(メタデータ) (2024-06-23T13:49:31Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Self-Adaptive Physics-Informed Neural Networks using a Soft Attention Mechanism [1.6114012813668932]
非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-09-07T04:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。