論文の概要: PDE Solvers Should Be Local: Fast, Stable Rollouts with Learned Local Stencils
- arxiv url: http://arxiv.org/abs/2509.26186v1
- Date: Tue, 30 Sep 2025 12:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.53995
- Title: PDE Solvers Should Be Local: Fast, Stable Rollouts with Learned Local Stencils
- Title(参考訳): PDEソリューションはローカルでなければならない - 学習したローカルステンシルによる高速で安定したロールアウト
- Authors: Chun-Wun Cheng, Bin Dong, Carola-Bibiane Schönlieb, Angelica I Aviles-Rivero,
- Abstract要約: 有限差分に着想を得たニューラルネットワークであるFINOは、厳密な局所性を強制する。
FINOは固定有限差分ステンシル係数を学習可能な畳み込みカーネルに置き換える。
最先端のオペレータ-ラーニングベースラインよりも最大44%低いエラー、最大2倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 20.49015396991881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operator models for solving partial differential equations (PDEs) often rely on global mixing mechanisms-such as spectral convolutions or attention-which tend to oversmooth sharp local dynamics and introduce high computational cost. We present FINO, a finite-difference-inspired neural architecture that enforces strict locality while retaining multiscale representational power. FINO replaces fixed finite-difference stencil coefficients with learnable convolutional kernels and evolves states via an explicit, learnable time-stepping scheme. A central Local Operator Block leverage a differential stencil layer, a gating mask, and a linear fuse step to construct adaptive derivative-like local features that propagate forward in time. Embedded in an encoder-decoder with a bottleneck, FINO captures fine-grained local structures while preserving interpretability. We establish (i) a composition error bound linking one-step approximation error to stable long-horizon rollouts under a Lipschitz condition, and (ii) a universal approximation theorem for discrete time-stepped PDE dynamics. (iii) Across six benchmarks and a climate modelling task, FINO achieves up to 44\% lower error and up to around 2\times speedups over state-of-the-art operator-learning baselines, demonstrating that strict locality with learnable time-stepping yields an accurate and scalable foundation for neural PDE solvers.
- Abstract(参考訳): 偏微分方程式(PDE)を解くニューラル作用素モデルは、しばしばスペクトル畳み込みや注意のような大域的な混合機構に依存する。
有限差分に着想を得たニューラルアーキテクチャであるFINOを,マルチスケールの表現力を維持しながら厳密な局所性を実現する。
FINOは固定有限差分ステンシル係数を学習可能な畳み込みカーネルに置き換え、明示的で学習可能なタイムステッピングスキームを通じて状態を進化させる。
中央局所演算子ブロックは、微分ステンシル層、ゲーティングマスク、線形ヒューズステップを利用して、時間内に伝播する適応微分様局所特徴を構築する。
ボトルネックのあるエンコーダデコーダに埋め込まれたFINOは、解釈性を維持しながらきめ細かい局所構造をキャプチャする。
成立
(i)リプシッツ条件下での安定長軸ロールアウトに一段近似誤差をリンクする合成誤差、及び
(ii)離散時間ステップPDEダイナミクスに対する普遍近似定理。
3)6つのベンチマークと気候モデリングタスクのうち、FINOは44倍のエラーを最大2倍のスピードアップを実現し、学習可能なタイムステッピングによる厳密な局所性は、ニューラルネットワークPDEソルバの正確でスケーラブルな基礎となることを実証した。
関連論文リスト
- Enabling Local Neural Operators to perform Equation-Free System-Level Analysis [1.2468700211588881]
ニューラルネットワーク(NO)は、物理法則を含む計算のための強力なフレームワークを提供する。
我々は、Krylov部分空間における(局所的な)NOと高度な反復的数値法を統合するフレームワークを提案し、実装する。
3つの非線形PDEベンチマークを通して、我々のフレームワークを説明します。
論文 参考訳(メタデータ) (2025-05-05T01:17:18Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。