論文の概要: Scale-PINN: Learning Efficient Physics-Informed Neural Networks Through Sequential Correction
- arxiv url: http://arxiv.org/abs/2602.19475v1
- Date: Mon, 23 Feb 2026 03:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.664262
- Title: Scale-PINN: Learning Efficient Physics-Informed Neural Networks Through Sequential Correction
- Title(参考訳): Scale-PINN: 逐次補正による効率的な物理インフォームニューラルネットワークの学習
- Authors: Pao-Hsiung Chiu, Jian Cheng Wong, Chin Chun Ooi, Chang Wei, Yuchen Fan, Yew-Soon Ong,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式を解くための有望なメッシュフリーパラダイムとして登場した。
本稿では,現代の物理インフォームドラーニングを数値アルゴリズムでブリッジする学習戦略である,学習効率の高いPINN(Scale-PINN)について紹介する。
- 参考スコア(独自算出の注目度): 33.84065974605524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) have emerged as a promising mesh-free paradigm for solving partial differential equations, yet adoption in science and engineering is limited by slow training and modest accuracy relative to modern numerical solvers. We introduce the Sequential Correction Algorithm for Learning Efficient PINN (Scale-PINN), a learning strategy that bridges modern physics-informed learning with numerical algorithms. Scale-PINN incorporates the iterative residual-correction principle, a cornerstone of numerical solvers, directly into the loss formulation, marking a paradigm shift in how PINN losses can be conceived and constructed. This integration enables Scale-PINN to achieve unprecedented convergence speed across PDE problems from different physics domain, including reducing training time on a challenging fluid-dynamics problem for state-of-the-art PINN from hours to sub-2 minutes while maintaining superior accuracy, and enabling application to representative problems in aerodynamics and urban science. By uniting the rigor of numerical methods with the flexibility of deep learning, Scale-PINN marks a significant leap toward the practical adoption of PINNs in science and engineering through scalable, physics-informed learning. Codes are available at https://github.com/chiuph/SCALE-PINN.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式を解くための有望なメッシュフリーパラダイムとして登場したが、科学と工学への採用は、現代の数値解法と比較して遅い訓練と控えめな精度によって制限されている。
本稿では,現代の物理インフォームドラーニングを数値アルゴリズムでブリッジする学習戦略である,学習効率の高いPINN(Scale-PINN)について紹介する。
Scale-PINNは、数値解法の基礎である反復的残差補正原理を損失定式化に直接組み込んでおり、PINNの損失をどのように考え、構築するかのパラダイムシフトを示している。
この統合により、スケール-PINNは異なる物理領域からPDE問題にまたがる前代未聞の収束速度を達成できる。例えば、最先端のPINNの流体力学問題に対する訓練時間を数時間から2分以内に短縮し、精度を向上し、空気力学や都市科学における代表的問題への適用を可能にする。
数値的手法の厳密さと深層学習の柔軟性を結びつけることで、スケール-PINNは、スケーラブルで物理インフォームドラーニングを通じて、科学と工学におけるPINNの実践的採用に向けて大きな飛躍を遂げた。
コードはhttps://github.com/chiuph/SCALE-PINNで公開されている。
関連論文リスト
- Stiff Transfer Learning for Physics-Informed Neural Networks [1.5361702135159845]
本研究では, 物理インフォームドニューラルネットワーク(STL-PINN)の高次常微分方程式 (ODE) と偏微分方程式 (PDE) に挑戦する新しい手法を提案する。
提案手法は, マルチヘッドPINNを低剛性体制で訓練し, トランスファーラーニングにより高剛性体制で最終解を得る。
これにより、PINNの剛性に関連する障害モードに対処し、「ワンショット」ソリューションを計算することで計算効率を維持できる。
論文 参考訳(メタデータ) (2025-01-28T20:27:38Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - Binary structured physics-informed neural networks for solving equations
with rapidly changing solutions [3.6415476576196055]
偏微分方程式(PDE)を解くための有望なアプローチとして、物理情報ニューラルネットワーク(PINN)が登場した。
本稿では、ニューラルネットワークコンポーネントとしてバイナリ構造化ニューラルネットワーク(BsNN)を用いる、バイナリ構造化物理インフォームドニューラルネットワーク(BsPINN)フレームワークを提案する。
BsPINNは、PINNよりも収束速度と精度が優れている。
論文 参考訳(メタデータ) (2024-01-23T14:37:51Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。