論文の概要: NOWS: Neural Operator Warm Starts for Accelerating Iterative Solvers
- arxiv url: http://arxiv.org/abs/2511.02481v2
- Date: Wed, 05 Nov 2025 09:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.189731
- Title: NOWS: Neural Operator Warm Starts for Accelerating Iterative Solvers
- Title(参考訳): NOWS: 反復解を加速するニューラルネットワーク演算子ワームがスタート
- Authors: Mohammad Sadegh Eshaghi, Cosmin Anitescu, Navid Valizadeh, Yizheng Wang, Xiaoying Zhuang, Timon Rabczuk,
- Abstract要約: 偏微分方程式 (Partial differential equation, PDE) は、物理科学や工学における定量的記述の基盤となっている。
データ駆動サロゲートは驚くほど高速だが、トレーニングディストリビューションの外で適用されると、しばしば信頼性が低下する。
本稿では、学習した解演算子を利用して古典的反復解法を高速化するハイブリッド戦略であるNeural Operator Warm Starts (NOWS)を紹介する。
- 参考スコア(独自算出の注目度): 1.8117099374299037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Partial differential equations (PDEs) underpin quantitative descriptions across the physical sciences and engineering, yet high-fidelity simulation remains a major computational bottleneck for many-query, real-time, and design tasks. Data-driven surrogates can be strikingly fast but are often unreliable when applied outside their training distribution. Here we introduce Neural Operator Warm Starts (NOWS), a hybrid strategy that harnesses learned solution operators to accelerate classical iterative solvers by producing high-quality initial guesses for Krylov methods such as conjugate gradient and GMRES. NOWS leaves existing discretizations and solver infrastructures intact, integrating seamlessly with finite-difference, finite-element, isogeometric analysis, finite volume method, etc. Across our benchmarks, the learned initialization consistently reduces iteration counts and end-to-end runtime, resulting in a reduction of the computational time of up to 90 %, while preserving the stability and convergence guarantees of the underlying numerical algorithms. By combining the rapid inference of neural operators with the rigor of traditional solvers, NOWS provides a practical and trustworthy approach to accelerate high-fidelity PDE simulations.
- Abstract(参考訳): 偏微分方程式 (Partial differential equation, PDE) は、物理科学や工学における定量的記述の基盤となっているが、高忠実度シミュレーションは、多くのクエリ、リアルタイム、設計タスクにおいて主要な計算ボトルネックとなっている。
データ駆動サロゲートは驚くほど高速だが、トレーニングディストリビューションの外で適用されると、しばしば信頼性が低下する。
本稿では、共役勾配やGMRESのようなクリロフ法に対する高品質な初期推定を生成することにより、学習した解演算子を利用して古典的反復解法を高速化するハイブリッド戦略であるNeural Operator Warm Starts (NOWS)を紹介する。
NOWSは、既存の離散化とソルバ基盤をそのまま残し、有限差分、有限要素、等幾何学解析、有限体積法等とシームレスに統合する。
ベンチマーク全体を通じて、学習した初期化はイテレーション数とエンドツーエンドランタイムを一貫して削減し、計算時間を最大90%削減すると同時に、基礎となる数値アルゴリズムの安定性と収束性を保証する。
ニューラル演算子の高速推論と従来の解法の厳密さを組み合わせることで、NOWSは高忠実度PDEシミュレーションを加速するための実用的で信頼性の高いアプローチを提供する。
関連論文リスト
- Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Fast training of accurate physics-informed neural networks without gradient descent [4.411766183442036]
時空分離の原理に基づく新しいPINNであるFrozen-PINNを提案する。
8つのPDEベンチマークにおいて、Frozen-PINNは最先端のPINNよりも優れたトレーニング効率と精度を達成する。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Spectral-Refiner: Accurate Fine-Tuning of Spatiotemporal Fourier Neural Operator for Turbulent Flows [6.961408873053586]
最近の演算子型ニューラルネットワークは、部分微分方程式(PDE)の近似に有望な結果を示している。
これらのニューラルネットワークは、かなりのトレーニング費用を要し、科学や工学の分野において要求される精度を常に達成するとは限らない。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。