論文の概要: Are Deep Learning Based Hybrid PDE Solvers Reliable? Why Training Paradigms and Update Strategies Matter
- arxiv url: http://arxiv.org/abs/2602.06842v1
- Date: Fri, 06 Feb 2026 16:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.483136
- Title: Are Deep Learning Based Hybrid PDE Solvers Reliable? Why Training Paradigms and Update Strategies Matter
- Title(参考訳): ディープラーニングに基づくハイブリッドPDEソリューションは信頼性が高いか? なぜパラダイムと更新戦略が重要か
- Authors: Yuhan Wu, Jan Willem van Beek, Victorita Dolean, Alexander Heinlein,
- Abstract要約: パフォーマンスは、トレーニングパラダイムやアップデート戦略に非常に敏感であることを示します。
固定点更新よりも物理残差を最小限に抑える物理認識型アンダーソン加速度(PA-AA)を導入する。
- 参考スコア(独自算出の注目度): 41.35393583386416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based hybrid iterative methods (DL-HIMs) integrate classical numerical solvers with neural operators, utilizing their complementary spectral biases to accelerate convergence. Despite this promise, many DL-HIMs stagnate at false fixed points where neural updates vanish while the physical residual remains large, raising questions about reliability in scientific computing. In this paper, we provide evidence that performance is highly sensitive to training paradigms and update strategies, even when the neural architecture is fixed. Through a detailed study of a DeepONet-based hybrid iterative numerical transferable solver (HINTS) and an FFT-based Fourier neural solver (FNS), we show that significant physical residuals can persist when training objectives are not aligned with solver dynamics and problem physics. We further examine Anderson acceleration (AA) and demonstrate that its classical form is ill-suited for nonlinear neural operators. To overcome this, we introduce physics-aware Anderson acceleration (PA-AA), which minimizes the physical residual rather than the fixed-point update. Numerical experiments confirm that PA-AA restores reliable convergence in substantially fewer iterations. These findings provide a concrete answer to ongoing controversies surrounding AI-based PDE solvers: reliability hinges not only on architectures but on physically informed training and iteration design.
- Abstract(参考訳): 深層学習に基づくハイブリッド反復法(DL-HIMs)は、古典的数値解法とニューラル演算子を統合し、その相補的なスペクトルバイアスを利用して収束を加速する。
この約束にもかかわらず、多くのDL-HIMは、物理的残差が大きい間、神経アップデートが消える誤った固定点で停滞し、科学計算の信頼性に関する疑問が持ち上がった。
本稿では,ニューラルネットワークが固定された場合でも,性能が訓練パラダイムや更新戦略に非常に敏感であることを示す。
DeepONetをベースとしたハイブリッド反復型数値伝達可解器(HINTS)とFFTをベースとしたフーリエニューラルソルバ(FNS)の詳細な研究を通じて、トレーニング対象がソルバダイナミクスや問題物理学と整合していない場合、重要な物理残差が持続可能であることを示す。
さらにアンダーソン加速度(AA)について検討し、その古典形式が非線形ニューラル作用素に不適であることを実証する。
これを解決するために、固定点更新よりも物理残差を最小限に抑える物理認識アンダーソン加速度(PA-AA)を導入する。
数値実験により、PA-AAは信頼性のある収束をかなり少ないイテレーションで復元することを確認した。
これらの発見は、AIベースのPDE解決者を取り巻く論争に対する具体的な答えである:信頼性はアーキテクチャだけでなく、物理的にインフォメーションされたトレーニングやイテレーション設計にも影響を及ぼす。
関連論文リスト
- NOWS: Neural Operator Warm Starts for Accelerating Iterative Solvers [1.8117099374299037]
偏微分方程式 (Partial differential equation, PDE) は、物理科学や工学における定量的記述の基盤となっている。
データ駆動サロゲートは驚くほど高速だが、トレーニングディストリビューションの外で適用されると、しばしば信頼性が低下する。
本稿では、学習した解演算子を利用して古典的反復解法を高速化するハイブリッド戦略であるNeural Operator Warm Starts (NOWS)を紹介する。
論文 参考訳(メタデータ) (2025-11-04T11:12:27Z) - Implicit Neural Differential Model for Spatiotemporal Dynamics [5.1854032131971195]
In-PiNDiffは、安定時間力学のための新しい暗黙の物理積分型ニューラル微分可能解法である。
深い平衡モデルにインスパイアされたIm-PiNDiffは、暗黙の固定点層を用いて状態を前進させ、堅牢な長期シミュレーションを可能にする。
Im-PiNDiffは優れた予測性能、数値安定性の向上、メモリとコストの大幅な削減を実現している。
論文 参考訳(メタデータ) (2025-04-03T04:07:18Z) - Metamizer: a versatile neural optimizer for fast and accurate physics simulations [4.717325308876749]
本稿では,広範囲の物理システムを高精度で反復的に解く,新しいニューラルネットワークであるMetamizerを紹介する。
我々は,メタマイザがディープラーニングに基づくアプローチにおいて,前例のない精度で達成できることを実証した。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:54:31Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。