論文の概要: INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers
- arxiv url: http://arxiv.org/abs/2511.12764v2
- Date: Tue, 18 Nov 2025 11:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.788471
- Title: INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers
- Title(参考訳): InC: 自己回帰型ハイブリッドPDE用間接ニューラルコレクタ
- Authors: Hao Wei, Aleksandra Franz, Bjoern List, Nils Thuerey,
- Abstract要約: 本稿では,学習した補正を支配方程式に統合する間接ニューラルコレクタ(mathrmINC$)を提案する。
$mathrmINC$は、$t-1 + L$の順番でエラー増幅を減らし、$t$はタイムステップ、$L$はリプシッツ定数である。
大規模なベンチマークで$mathrmINC$をテストし、1Dカオスシステムから3D乱流まで、多くの異なる解法、神経バックボーン、テストケースをカバーした。
- 参考スコア(独自算出の注目度): 61.84396402100827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When simulating partial differential equations, hybrid solvers combine coarse numerical solvers with learned correctors. They promise accelerated simulations while adhering to physical constraints. However, as shown in our theoretical framework, directly applying learned corrections to solver outputs leads to significant autoregressive errors, which originate from amplified perturbations that accumulate during long-term rollouts, especially in chaotic regimes. To overcome this, we propose the Indirect Neural Corrector ($\mathrm{INC}$), which integrates learned corrections into the governing equations rather than applying direct state updates. Our key insight is that $\mathrm{INC}$ reduces the error amplification on the order of $Δt^{-1} + L$, where $Δt$ is the timestep and $L$ the Lipschitz constant. At the same time, our framework poses no architectural requirements and integrates seamlessly with arbitrary neural networks and solvers. We test $\mathrm{INC}$ in extensive benchmarks, covering numerous differentiable solvers, neural backbones, and test cases ranging from a 1D chaotic system to 3D turbulence. $\mathrm{INC}$ improves the long-term trajectory performance ($R^2$) by up to 158.7%, stabilizes blowups under aggressive coarsening, and for complex 3D turbulence cases yields speed-ups of several orders of magnitude. $\mathrm{INC}$ thus enables stable, efficient PDE emulation with formal error reduction, paving the way for faster scientific and engineering simulations with reliable physics guarantees. Our source code is available at https://github.com/tum-pbs/INC
- Abstract(参考訳): 偏微分方程式をシミュレートする際、ハイブリッドソルバは粗い数値ソルバと学習正解器を結合する。
彼らは物理的制約に固執しながらシミュレーションを加速することを約束する。
しかし、この理論の枠組みで示されているように、学習した補正を解法出力に直接適用すると、特にカオス的状態において、長期的ロールアウト時に蓄積される摂動の増幅から生じる大きな自己回帰誤差が生じる。
これを解決するために、直接状態更新を適用するのではなく、学習した補正を支配方程式に統合する間接ニューラルコレクタ("\mathrm{INC}$")を提案する。
我々の重要な洞察は、$\mathrm{INC}$は、$Δt^{-1} + L$の順序で誤差増幅を減らし、$Δt$はタイムステップ、$L$はリプシッツ定数である。
同時に、私たちのフレームワークはアーキテクチャ要件を課さず、任意のニューラルネットワークやソルバとシームレスに統合します。
大規模なベンチマークで$\mathrm{INC}$をテストし、1Dカオスシステムから3D乱流まで、多くの微分可能な解法、神経バックボーン、テストケースをカバーした。
$\mathrm{INC}$は、長期軌跡性能(R^2$)を最大158.7%改善し、アグレッシブな粗大化の下でブローアップを安定化させ、複雑な3D乱流の場合、数桁のスピードアップをもたらす。
したがって、$\mathrm{INC}$は、安定で効率的なPDEエミュレーションを形式的なエラー低減で実現し、信頼性の高い物理保証を持つより高速な科学的・工学的なシミュレーションを可能にする。
ソースコードはhttps://github.com/tum-pbs/INCで公開されています。
関連論文リスト
- Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs. Neural Operators [0.0]
時間依存偏微分方程式(PDE)の原理的代理モデルとしてニューラルグラフシミュレータ(GNS)を提案する。
GNSは、メッセージパッシングと数値的なタイムステッピングスキームを組み合わせて、瞬時微分をモデル化してPDEダイナミクスを学習する。
その結果, GNSはデータ効率が著しく高く, 比較的L2誤差が1%未満であり, 利用可能な軌道は3%に過ぎなかった。
論文 参考訳(メタデータ) (2025-09-07T17:54:23Z) - Enhanced accuracy through ensembling of randomly initialized auto-regressive models for time-dependent PDEs [0.0]
機械学習モデルによる自己回帰推論は、連続した予測よりもエラーの蓄積に悩まされ、長期的な精度が制限される。
この課題に対処するために,複数のMLサロゲートモデルを並列にトレーニングし,推論中に集約するディープアンサンブルフレームワークを提案する。
我々はPDEを駆動する3つの力学系 - 不均一なミクロ組織における応力の進化、グレイ・スコット反応拡散、惑星規模の浅層水系 - の枠組みを検証した。
論文 参考訳(メタデータ) (2025-07-05T02:25:12Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [73.52999622724101]
本稿では,自動微分と任意のジオメトリの正確な勾配を求める最初の手法であるモリファイドグラフニューラル演算子(m$GNO)を提案する。
正規格子上のPDEの例では、$m$GNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Self-Ensembling Gaussian Splatting for Few-Shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)において顕著な効果を示した
本稿では,Self-Ensembling Gaussian Splatting(SE-GS)を紹介する。
我々は,トレーニング中に不確実性を認識した摂動戦略を導入することで,自己理解を実現する。
LLFF, Mip-NeRF360, DTU, MVImgNetデータセットによる実験結果から, 本手法がNVSの品質を向上させることを示す。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - On the estimation rate of Bayesian PINN for inverse problems [10.100602879566782]
物理インフォームドニューラルネットワーク(PINN)を用いた偏微分方程式(PDE)とその逆問題の解法は、物理学と機械学習のコミュニティにおいて急速に普及しているアプローチである。
我々は,PDEの解のベイズPINN推定器の挙動を$n$独立雑音測定から検討した。
論文 参考訳(メタデータ) (2024-06-21T01:13:18Z) - Regret-Optimal Federated Transfer Learning for Kernel Regression with Applications in American Option Pricing [8.723136784230906]
本稿では、中央プランナーがデータセットにアクセス可能なフェデレーショントランスファー学習のための最適反復スキームを提案する。
我々の目標は、生成されたパラメータの累積偏差を$thetai(t)_t=0T$で最小化することである。
後悔と最適化のアルゴリズム内で対称性を活用することで, $mathcalO(Np2)$少なめの初等演算を伴って動作する,ほぼ後悔のいく$_optimalを開発する。
論文 参考訳(メタデータ) (2023-09-08T19:17:03Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - Sharper Convergence Guarantees for Asynchronous SGD for Distributed and
Federated Learning [77.22019100456595]
通信周波数の異なる分散計算作業者のトレーニングアルゴリズムを示す。
本研究では,より厳密な収束率を$mathcalO!!(sigma2-2_avg!)とする。
また,不均一性の項は,作業者の平均遅延によっても影響されることを示した。
論文 参考訳(メタデータ) (2022-06-16T17:10:57Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Asynchronous Stochastic Optimization Robust to Arbitrary Delays [54.61797739710608]
遅延勾配の最適化を考えると、ステップt$毎に、アルゴリズムは古い計算を使って更新する - d_t$ for arbitrary delay $d_t gradient。
本実験は,遅延分布が歪んだり重くなったりした場合のアルゴリズムの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2021-06-22T15:50:45Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Large-time asymptotics in deep learning [0.0]
トレーニングにおける最終時間の$T$(対応するResNetの深さを示す可能性がある)の影響について検討する。
古典的な$L2$-正規化経験的リスク最小化問題に対して、トレーニングエラーが$mathcalOleft(frac1Tright)$のほとんどであることを示す。
$ellp$-距離損失の設定において、トレーニングエラーと最適パラメータの両方が$mathcalOleft(e-mu)の順序のほとんどであることを示す。
論文 参考訳(メタデータ) (2020-08-06T07:33:17Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Naive Exploration is Optimal for Online LQR [49.681825576239355]
最適後悔尺度は$widetildeTheta(sqrtd_mathbfu2 d_mathbfx T)$で、$T$は時間ステップの数、$d_mathbfu$は入力空間の次元、$d_mathbfx$はシステム状態の次元である。
我々の下界は、かつての$mathrmpoly(logT)$-regretアルゴリズムの可能性を排除する。
論文 参考訳(メタデータ) (2020-01-27T03:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。