論文の概要: Improving physics-informed neural network extrapolation via transfer learning and adaptive activation functions
- arxiv url: http://arxiv.org/abs/2507.12659v1
- Date: Wed, 16 Jul 2025 22:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.286813
- Title: Improving physics-informed neural network extrapolation via transfer learning and adaptive activation functions
- Title(参考訳): 伝達学習と適応活性化関数による物理インフォームドニューラルネットワーク外挿の改良
- Authors: Athanasios Papastathopoulos-Katsaros, Alexandra Stavrianidi, Zhandong Liu,
- Abstract要約: 物理情報ニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、システムの物理法則を学習プロセスに組み込んだディープラーニングモデルである。
本稿では,PINNの補間性能を向上させるために,転送学習(TL)手法を提案する。
提案手法は, 平均L2誤差を平均40%, 平均絶対誤差を平均50%削減する。
- 参考スコア(独自算出の注目度): 44.44497277876625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) are deep learning models that incorporate the governing physical laws of a system into the learning process, making them well-suited for solving complex scientific and engineering problems. Recently, PINNs have gained widespread attention as a powerful framework for combining physical principles with data-driven modeling to improve prediction accuracy. Despite their successes, however, PINNs often exhibit poor extrapolation performance outside the training domain and are highly sensitive to the choice of activation functions (AFs). In this paper, we introduce a transfer learning (TL) method to improve the extrapolation capability of PINNs. Our approach applies transfer learning (TL) within an extended training domain, using only a small number of carefully selected collocation points. Additionally, we propose an adaptive AF that takes the form of a linear combination of standard AFs, which improves both the robustness and accuracy of the model. Through a series of experiments, we demonstrate that our method achieves an average of 40% reduction in relative L2 error and an average of 50% reduction in mean absolute error in the extrapolation domain, all without a significant increase in computational cost. The code is available at https://github.com/LiuzLab/PINN-extrapolation .
- Abstract(参考訳): 物理情報ニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、システムの物理法則を学習プロセスに組み込んだディープラーニングモデルである。
近年、PINNは予測精度を向上させるために、物理原理とデータ駆動モデリングを組み合わせた強力なフレームワークとして広く注目を集めている。
しかし、その成功にもかかわらず、PINNはトレーニング領域の外挿性能が悪く、アクティベーション機能(AF)の選択に非常に敏感である。
本稿では,PINNの補間性能を向上させるためのトランスファーラーニング(TL)手法を提案する。
提案手法は,少数の慎重に選択されたコロケーションポイントを用いて,拡張トレーニング領域内に伝達学習(TL)を適用した。
さらに、標準AFの線形結合の形式を取り入れた適応AFを提案し、モデルの堅牢性と精度を両立させる。
一連の実験を通して,本手法は相対的なL2誤差の平均40%の低減と外挿領域の平均絶対誤差の平均50%の低減を実現し,計算コストの大幅な増加を伴わないことを示した。
コードはhttps://github.com/LiuzLab/PINN-extrapolation で公開されている。
関連論文リスト
- AL-PINN: Active Learning-Driven Physics-Informed Neural Networks for Efficient Sample Selection in Solving Partial Differential Equations [0.0]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
サンプル選択を動的に最適化するために、不確実性定量化(UQ)とアクティブラーニング戦略を統合したアクティブラーニング駆動型PINN(AL-PINN)を提案する。
その結果,AL-PINN は従来の PINN と比較して精度が向上し,必要なトレーニングサンプルの数を削減できた。
論文 参考訳(メタデータ) (2025-02-06T10:54:28Z) - Domain-decoupled Physics-informed Neural Networks with Closed-form Gradients for Fast Model Learning of Dynamical Systems [2.8730926763860687]
物理インフォームドニューラルネットワーク(PINN)は、物理方程式を用いて訓練され、データから学習することで、モデル化されていない効果を組み込むことができる。
本稿では、大規模で複雑な非線形力学系を扱う場合のPINCの現在の限界に対処するために、ドメイン分離された物理情報ニューラルネットワーク(DD-PINN)を導入する。
論文 参考訳(メタデータ) (2024-08-27T10:54:51Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Transfer Learning with Physics-Informed Neural Networks for Efficient
Simulation of Branched Flows [1.1470070927586016]
物理インフォームドニューラルネットワーク(PINN)は微分方程式を解くための有望なアプローチを提供する。
PINNに対して最近開発されたトランスファー学習アプローチを採用し,マルチヘッドモデルを提案する。
提案手法は,スクラッチからトレーニングした標準PINNと比較して,計算速度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-01T01:50:00Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Certified machine learning: A posteriori error estimation for
physics-informed neural networks [0.0]
PINNは、より小さなトレーニングセットに対して堅牢であることが知られ、より優れた一般化問題を導出し、より高速にトレーニングすることができる。
純粋にデータ駆動型ニューラルネットワークと比較してPINNを使うことは、トレーニング性能に好都合であるだけでなく、近似されたソリューションの品質に関する重要な情報を抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-31T14:23:04Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。