論文の概要: SGNO: Spectral Generator Neural Operators for Stable Long Horizon PDE Rollouts
- arxiv url: http://arxiv.org/abs/2602.18801v1
- Date: Sat, 21 Feb 2026 11:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.322133
- Title: SGNO: Spectral Generator Neural Operators for Stable Long Horizon PDE Rollouts
- Title(参考訳): SGNO:安定長軸PDEロールアウト用分光発生器ニューラル演算子
- Authors: Jiayi Li, Zhaonan Wang, Flora D. Salim,
- Abstract要約: 我々はSGNO(Spectral Generator Neural Operator)を紹介する。
線形部分に対して、SGNOはフーリエ空間における指数時間差更新と学習された対角生成器を用いる。
ワンステップ境界と有限水平ロールアウト誤差境界を導出する。
1D, 2D, 3D PDE ファミリーにまたがる APEBench では、SGNO は強いニューラル演算子ベースラインよりも低い長い水平誤差と長いロールアウト長を達成する。
- 参考スコア(独自算出の注目度): 15.563828873453353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators provide fast PDE surrogates and often generalize across parameters and resolutions. However, in the short train long test setting, autoregressive rollouts can become unstable. This typically happens for two reasons: one step errors accumulate over time, and high frequency components feed back and grow. We introduce the Spectral Generator Neural Operator (SGNO), a residual time stepper that targets both effects. For the linear part, SGNO uses an exponential time differencing update in Fourier space with a learned diagonal generator. We constrain the real part of this generator to be nonpositive, so iterating the step does not amplify the linear dynamics. For nonlinear dynamics, SGNO adds a gated forcing term with channel mixing within each Fourier mode, which keeps the nonlinear update controlled. To further limit high frequency feedback, SGNO applies spectral truncation and an optional smooth mask on the forcing pathway. We derive a one step amplification bound and a finite horizon rollout error bound. The bound separates generator approximation error from nonlinear mismatch and gives sufficient conditions under which the latent $L^2$ norm does not grow across rollout steps. On APEBench spanning 1D, 2D, and 3D PDE families, SGNO achieves lower long horizon error and longer stable rollout lengths than strong neural operator baselines. Ablations confirm the roles of the generator constraint, gating, and filtering.The code is available at https://github.com/lijy32123-cloud/SGNO.
- Abstract(参考訳): ニューラル作用素は高速なPDEサロゲートを提供し、しばしばパラメータや分解能にまたがって一般化する。
しかし、短距離試験では自動回帰ロールアウトが不安定になる可能性がある。
1ステップのエラーが時間の経過とともに蓄積され、高周波コンポーネントがフィードバックし、成長する。
両効果を目標とした残留時間ステッパーであるSGNO(Spectral Generator Neural Operator)を導入する。
線形部分に対して、SGNOはフーリエ空間における指数時間差更新と学習された対角生成器を用いる。
この生成器の実際の部分は非正となるよう制約するため、ステップの反復は線形力学を増幅しない。
非線形力学では、SGNOは各フーリエモード内にチャネル混合を伴うゲート強制項を追加し、非線形更新を制御する。
高周波フィードバックをさらに制限するために、SGNOはスペクトル切り離しと任意の滑らかなマスクを強制経路に適用する。
一段増幅境界と有限水平ロールアウト誤差境界を導出する。
バウンドはジェネレータ近似誤差と非線形ミスマッチを分離し、潜伏する$L^2$ノルムがロールアウトステップ全体で成長しない十分な条件を与える。
1D, 2D, 3D PDEファミリーにまたがるAPEBenchでは、SGNOは強いニューラル演算子ベースラインよりも低い長い水平誤差と長いロールアウト長を達成する。
ソースコードはhttps://github.com/lijy32123-cloud/SGNOで公開されている。
関連論文リスト
- Analytical blueprint for 99.999% fidelity X-gates on present superconducting hardware under strong driving [4.406638884109584]
既存のデコヒーレンスレートを組み込んだ場合, 7ns$-rotationに対して, 10~5$以下のゲート不忠実度を数値的に示す。
また、DRAGプリファクタの最適値に関する長年の質問にも答えるとともに、常にデチューンする。
論文 参考訳(メタデータ) (2025-12-22T22:47:43Z) - INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers [61.84396402100827]
本稿では,学習した補正を支配方程式に統合する間接ニューラルコレクタ(mathrmINC$)を提案する。
$mathrmINC$は、$t-1 + L$の順番でエラー増幅を減らし、$t$はタイムステップ、$L$はリプシッツ定数である。
大規模なベンチマークで$mathrmINC$をテストし、1Dカオスシステムから3D乱流まで、多くの異なる解法、神経バックボーン、テストケースをカバーした。
論文 参考訳(メタデータ) (2025-11-16T20:14:28Z) - Performance of rotation-symmetric bosonic codes in the presence of random telegraph noise [0.0]
連続変動系におけるボソニックモードに対する個人および複数ゆらぎ器の影響を解析する。
ガウス状態の場合、スクイーズや熱ゆらぎは非マルコビアン性を高めないことを示す。
誤り訂正の利点で知られる回転対称ボソニック符号(RSB)では、非マルコビアン性は符号対称性とともに線形に増大する。
論文 参考訳(メタデータ) (2025-05-13T15:32:18Z) - Oscillatory State-Space Models [61.923849241099184]
長いシーケンスを効率的に学習するための線形状態空間モデル(LinOSS)を提案する。
高速な連想並列スキャンを用いて時間とともに統合された安定な離散化により、提案した状態空間モデルが得られる。
我々はLinOSSが普遍であること、すなわち時間変化関数間の連続および因果作用素写像を近似できることを示す。
論文 参考訳(メタデータ) (2024-10-04T22:00:13Z) - DeNOTS: Stable Deep Neural ODEs for Time Series [0.99450247450967]
CDEは不規則時系列の時間的進化を処理する方法を提供する。
我々は、NFEの増加とモデルの「深化」のために統合時間地平線を拡大することを提案する。
また、負のフィードバックによって動的を安定化する方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T09:49:37Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - Non-Convex Optimization via Non-Reversible Stochastic Gradient Langevin
Dynamics [27.097121544378528]
グラディエント・ランゲヴィン・ダイナミクス (Gradient Langevin Dynamics, SGLD) は、非目的勾配を最適化する強力なアルゴリズムである。
NSGLDは非可逆拡散の離散化に基づいている。
論文 参考訳(メタデータ) (2020-04-06T17:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。