論文の概要: A Family of Adaptive Activation Functions for Mitigating Failure Modes in Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2603.18328v1
- Date: Wed, 18 Mar 2026 22:24:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.870518
- Title: A Family of Adaptive Activation Functions for Mitigating Failure Modes in Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおける故障モードの緩和のための適応活性化関数の一家系
- Authors: Krishna Murari,
- Abstract要約: 標準PINNの共通障害モードに触発された本研究は、適応ウェーブレットベースのアクティベーション関数の新たなファミリを導入する。
トレーニング可能なウェーブレット関数とトレーニング可能なあるいは固定された双曲接点関数とソフトプラス関数を組み合わせることにより、トレーニング安定性と表現力を大幅に向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks(PINNs) are a powerful and flexible learning framework that has gained significant attention in recent years. It has demonstrated strong performance across a wide range of scientific and engineering problems. In parallel, wavelets have been extensively used as efficient computational tools due to their strong approximation capabilities. Motivated by the common failure modes observed in standard PINNs, this work introduces a novel family of adaptive wavelet-based activation functions. The proposed activation functions significantly improve training stability and expressive power by combining trainable wavelet functions with either trainable or fixed hyperbolic tangent and softplus functions. Five distinct activation functions are developed within the PINN framework and systematically evaluated across four representative classes of partial differential equations (PDEs). Comprehensive comparisons using bar plots demonstrate improved robustness and accuracy compared to traditional activation functions. Furthermore, the proposed approach is validated through direct comparisons with baseline PINNs, transformer-based architectures such as PINNsFormer, and other deep learning models, highlighting its effectiveness and generality.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は強力で柔軟な学習フレームワークであり、近年大きな注目を集めている。
幅広い科学的・工学的な問題に対して強い性能を示してきた。
平行して、ウェーブレットはその強い近似能力のために効率的な計算ツールとして広く使われている。
標準PINNの共通障害モードに触発された本研究は、適応ウェーブレットベースのアクティベーション関数の新たなファミリを導入する。
トレーニング可能なウェーブレット関数とトレーニング可能なあるいは固定された双曲接点関数とソフトプラス関数を組み合わせることにより、トレーニング安定性と表現力を大幅に向上させる。
5つの異なる活性化関数がPINNフレームワーク内で開発され、偏微分方程式(PDE)の4つの代表クラスで体系的に評価される。
バープロットを用いた総合的な比較では、従来のアクティベーション関数と比較して堅牢性と精度が向上した。
さらに,提案手法は,ベースラインPINN,PINNsFormerなどのトランスフォーマーベースアーキテクチャ,その他のディープラーニングモデルと直接比較することにより,その有効性と汎用性を強調した。
関連論文リスト
- On the practical applicability of modern DFT functionals for chemical computations. Case study of DM21 applicability for geometry optimization [55.88862563823878]
本研究は,分子量予測におけるDM21関数の効率評価に焦点をあてる。
幾何最適化問題におけるDM21関数に対するPySCFの幾何最適化を実装した。
本研究は,DFTにおける幾何最適化におけるニューラルネットワーク機能の可能性と現状の課題を明らかにするものである。
論文 参考訳(メタデータ) (2025-01-21T14:01:06Z) - Learnable Activation Functions in Physics-Informed Neural Networks for Solving Partial Differential Equations [0.0]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
これらの制限は、急激な振動、鋭い勾配、複雑な境界挙動を含む問題の精度に影響を与える。
これらの課題に対する解決策として,学習可能なアクティベーション関数について検討する。
論文 参考訳(メタデータ) (2024-11-22T18:25:13Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Unification of popular artificial neural network activation functions [0.0]
本稿では,最も一般的なニューラルネットワーク活性化関数の統一表現について述べる。
分数計算のMittag-Leffler関数を採用することにより、フレキシブルでコンパクトな関数形式を提案する。
論文 参考訳(メタデータ) (2023-02-21T21:20:59Z) - Otimizacao de pesos e funcoes de ativacao de redes neurais aplicadas na
previsao de series temporais [0.0]
本稿では,ニューラルネットワークにおける自由パラメータ非対称活性化関数群の利用を提案する。
定義された活性化関数の族は普遍近似定理の要求を満たすことを示す。
ニューラルネットワークの処理ユニット間の接続の重み付けと自由パラメータを用いたこの活性化関数系のグローバル最適化手法を用いる。
論文 参考訳(メタデータ) (2021-07-29T23:32:15Z) - eQE 2.0: Subsystem DFT Beyond GGA Functionals [58.720142291102135]
サブシステム-DFT (subsystem-DFT) は、大規模電子構造計算の計算コストを劇的に削減することができる。
sDFTの鍵となる要素は、その精度を支配する非付加的な運動エネルギーと交換相関関数である。
eQE 2.0は従来のコーンシャムDFTやCCSD(T)と比較して優れた相互作用エネルギーを提供する
論文 参考訳(メタデータ) (2021-03-12T22:26:36Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。