論文の概要: Mask-PINNs: Regulating Feature Distributions in Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2505.06331v1
- Date: Fri, 09 May 2025 15:38:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.792358
- Title: Mask-PINNs: Regulating Feature Distributions in Physics-Informed Neural Networks
- Title(参考訳): Mask-PINN:物理インフォームドニューラルネットワークにおける特徴分布の制御
- Authors: Feilong Jiang, Xiaonan Hou, Jianqiao Ye, Min Xia,
- Abstract要約: 本稿では,この問題に対処する新しいアーキテクチャであるMask-PINNを提案する。
BatchNormやLayerNormのような従来の正規化手法とは異なり、学習可能な非線形マスク関数を導入する。
提案手法は,様々なアクティベーション関数およびPDEベンチマークにおいて,特徴分布安定性,精度,ロバスト性を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 1.6984490081106065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) are a class of deep learning models designed to solve partial differential equations by incorporating physical laws directly into the loss function. However, the internal covariate shift, which has been largely overlooked, hinders the effective utilization of neural network capacity in PINNs. To this end, we propose Mask-PINNs, a novel architecture designed to address this issue in PINNs. Unlike traditional normalization methods such as BatchNorm or LayerNorm, we introduce a learnable, nonlinear mask function that constrains the feature distributions without violating underlying physics. The experimental results show that the proposed method significantly improves feature distribution stability, accuracy, and robustness across various activation functions and PDE benchmarks. Furthermore, it enables the stable and efficient training of wider networks a capability that has been largely overlooked in PINNs.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、物理法則を直接損失関数に組み込むことで偏微分方程式を解くために設計されたディープラーニングモデルである。
しかし、ほとんど見過ごされてきた内部共変量シフトは、PINNにおけるニューラルネットワーク容量の効果的な利用を妨げる。
そこで本研究では,この問題に対処する新しいアーキテクチャであるMask-PINNを提案する。
BatchNormやLayerNormのような従来の正規化法とは異なり、基礎となる物理に違反することなく特徴分布を制約する学習可能な非線形マスク関数を導入する。
実験の結果,提案手法は様々なアクティベーション関数およびPDEベンチマークにおいて,特徴分布の安定性,精度,ロバスト性を大幅に向上することがわかった。
さらに、より広いネットワークの安定的で効率的なトレーニングを可能にし、PINNで見過ごされてきた。
関連論文リスト
- HyResPINNs: Hybrid Residual Networks for Adaptive Neural and RBF Integration in Solving PDEs [22.689531776611084]
本稿では,標準ニューラルネットワークと放射基底関数ネットワークを統合した適応型ハイブリッド残差ブロックを特徴とする新しいPINNであるHyResPINNを紹介する。
HyResPINNsの特徴は、各残差ブロック内で適応的な組み合わせパラメータを使用することで、ニューラルネットワークとRBFネットワークの動的重み付けを可能にすることである。
論文 参考訳(メタデータ) (2024-10-04T16:21:14Z) - Residual resampling-based physics-informed neural network for neutron diffusion equations [7.105073499157097]
中性子拡散方程式は原子炉の解析において重要な役割を果たす。
従来のPINNアプローチでは、完全に接続されたネットワーク(FCN)アーキテクチャを利用することが多い。
R2-PINNは、現在の方法に固有の制限を効果的に克服し、中性子拡散方程式のより正確で堅牢な解を提供する。
論文 参考訳(メタデータ) (2024-06-23T13:49:31Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Self-Adaptive Physics-Informed Neural Networks using a Soft Attention Mechanism [1.6114012813668932]
非線形偏微分方程式(PDE)の数値解に対するディープニューラルネットワークの有望な応用として、物理情報ニューラルネットワーク(PINN)が登場した。
そこで本研究では,PINNを適応的にトレーニングする方法として,適応重みを完全にトレーニング可能とし,各トレーニングポイントに個別に適用する手法を提案する。
線形および非線形のベンチマーク問題による数値実験では、SA-PINNはL2エラーにおいて他の最先端のPINNアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-09-07T04:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。