論文の概要: PTL-PINNs: Perturbation-Guided Transfer Learning with Physics- Informed Neural Networks for Nonlinear Systems
- arxiv url: http://arxiv.org/abs/2601.12093v1
- Date: Sat, 17 Jan 2026 16:09:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.460253
- Title: PTL-PINNs: Perturbation-Guided Transfer Learning with Physics- Informed Neural Networks for Nonlinear Systems
- Title(参考訳): PTL-PINN:非線形システムのための物理情報ニューラルネットワークを用いた摂動誘導伝達学習
- Authors: Duarte Alexandrino, Ben Moseley, Pavlos Protopapas,
- Abstract要約: PINNのための摂動誘導型転送学習フレームワーク(PTL-PINN)を提案する。
PTL-PINNは閉形式式を用いて近似線形摂動系を解き、行列ベクトル乗算の時間的複雑さを高速に一般化する。
我々は,PTL-PINNが,最大1桁の計算速度で,様々なRunge-Kutta法に匹敵する精度を実現することを示す。
- 参考スコア(独自算出の注目度): 7.961515776672606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately and efficiently solving nonlinear differential equations is crucial for modeling dynamic behavior across science and engineering. Physics-Informed Neural Networks (PINNs) have emerged as a powerful solution that embeds physical laws in training by enforcing equation residuals. However, these struggle to model nonlinear dynamics, suffering from limited generalization across problems and long training times. To address these limitations, we propose a perturbation-guided transfer learning framework for PINNs (PTL-PINN), which integrates perturbation theory with transfer learning to efficiently solve nonlinear equations. Unlike gradient-based transfer learning, PTL-PINNs solve an approximate linear perturbative system using closed-form expressions, enabling rapid generalization with the time complexity of matrix-vector multiplication. We show that PTL-PINNs achieve accuracy comparable to various Runge-Kutta methods, with computational speeds up to one order of magnitude faster. To benchmark performance, we solve a broad set of problems, including nonlinear oscillators across various damping regimes, the equilibrium-centered Lotka-Volterra system, the KPP-Fisher and the Wave equation. Since perturbation theory sets the accuracy bound of PTL-PINNs, we systematically evaluate its practical applicability. This work connects long-standing perturbation methods with PINNs, demonstrating how perturbation theory can guide foundational models to solve nonlinear systems with speeds comparable to those of classical solvers.
- Abstract(参考訳): 非線形微分方程式の正確かつ効率的な解法は、科学や工学における動的挙動のモデル化に不可欠である。
物理インフォームドニューラルネットワーク(PINN)は、方程式残差を強制することによってトレーニングに物理法則を組み込む強力なソリューションとして登場した。
しかし、これらは非線形力学をモデル化するのに苦労し、問題全体の限定的な一般化と長い訓練時間に悩まされた。
これらの制約に対処するために, 摂動理論と伝達学習を統合し, 非線形方程式の解法を効率的に行う, PINN(PTL-PINN)のための摂動誘導変換学習フレームワークを提案する。
勾配に基づく伝達学習とは異なり、PTL-PINNは閉形式式を用いて近似線形摂動系を解き、行列ベクトル乗算の時間的複雑さを伴う迅速な一般化を可能にする。
我々は,PTL-PINNが,最大1桁の計算速度で,様々なRunge-Kutta法に匹敵する精度を実現することを示す。
性能をベンチマークするために、様々な減衰系にまたがる非線形発振器、平衡中心ロトカ・ボルテラ系、KPP-フィッシャー方程式、ウェーブ方程式を含む幅広い問題を解く。
摂動理論はPTL-PINNの精度境界を設定するので,その実用性を体系的に評価する。
この研究は、長年にわたる摂動法とPINNを結びつけ、摂動理論が、古典的解法に匹敵する速度で非線形システムを解くための基礎モデルをどのように導くかを示す。
関連論文リスト
- Improving physics-informed neural network extrapolation via transfer learning and adaptive activation functions [44.44497277876625]
物理情報ニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、システムの物理法則を学習プロセスに組み込んだディープラーニングモデルである。
本稿では,PINNの補間性能を向上させるために,転送学習(TL)手法を提案する。
提案手法は, 平均L2誤差を平均40%, 平均絶対誤差を平均50%削減する。
論文 参考訳(メタデータ) (2025-07-16T22:19:53Z) - Stiff Transfer Learning for Physics-Informed Neural Networks [1.5361702135159845]
本研究では, 物理インフォームドニューラルネットワーク(STL-PINN)の高次常微分方程式 (ODE) と偏微分方程式 (PDE) に挑戦する新しい手法を提案する。
提案手法は, マルチヘッドPINNを低剛性体制で訓練し, トランスファーラーニングにより高剛性体制で最終解を得る。
これにより、PINNの剛性に関連する障害モードに対処し、「ワンショット」ソリューションを計算することで計算効率を維持できる。
論文 参考訳(メタデータ) (2025-01-28T20:27:38Z) - An efficient wavelet-based physics-informed neural networks for singularly perturbed problems [0.0]
物理インフォームドニューラルネットワーク(英: Physics-informed Neural Network, PINN)は、物理学を微分方程式の形で利用し、複雑な問題に対処する深層学習モデルである。
本稿では, ウェーブレットに基づくPINNモデルを用いて, 急激な振動, 急勾配, 特異な挙動を持つ微分方程式の解に挑戦する。
提案手法は、従来のPINN、最近開発されたウェーブレットベースのPINN、その他の最先端の手法で大幅に改善される。
論文 参考訳(メタデータ) (2024-09-18T10:01:37Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Transfer Learning with Physics-Informed Neural Networks for Efficient
Simulation of Branched Flows [1.1470070927586016]
物理インフォームドニューラルネットワーク(PINN)は微分方程式を解くための有望なアプローチを提供する。
PINNに対して最近開発されたトランスファー学習アプローチを採用し,マルチヘッドモデルを提案する。
提案手法は,スクラッチからトレーニングした標準PINNと比較して,計算速度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-01T01:50:00Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Physics-informed attention-based neural network for solving non-linear
partial differential equations [6.103365780339364]
物理情報ニューラルネットワーク(PINN)は、物理プロセスのモデリングにおいて大幅な改善を実現しました。
PINNは単純なアーキテクチャに基づいており、ネットワークパラメータを最適化することで複雑な物理システムの振る舞いを学習し、基礎となるPDEの残余を最小限に抑える。
ここでは、非線形PDEの複雑な振る舞いを学ぶのに、どのネットワークアーキテクチャが最適かという問題に対処する。
論文 参考訳(メタデータ) (2021-05-17T14:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。