論文の概要: DRIFT-Net: A Spectral--Coupled Neural Operator for PDEs Learning
- arxiv url: http://arxiv.org/abs/2509.24868v1
- Date: Mon, 29 Sep 2025 14:52:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.058773
- Title: DRIFT-Net: A Spectral--Coupled Neural Operator for PDEs Learning
- Title(参考訳): DRIFT-Net:PDE学習のためのスペクトル結合型ニューラル演算子
- Authors: Jiayi Li, Flora D. Salim,
- Abstract要約: ニューラルソルバを用いたPDE動的学習のための textbfDRIFT-Net を提案する。
スペクトルブランチとイメージブランチからなるデュアルブランチ設計を採用している。
トレーニング設定と予算は同じで,パラメータが少なく,エラーの低減とスループットの向上を実現している。
- 参考スコア(独自算出の注目度): 16.6687431452785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning PDE dynamics with neural solvers can significantly improve wall-clock efficiency and accuracy compared with classical numerical solvers. In recent years, foundation models for PDEs have largely adopted multi-scale windowed self-attention, with the scOT backbone in \textsc{Poseidon} serving as a representative example. However, because of their locality, truly globally consistent spectral coupling can only be propagated gradually through deep stacking and window shifting. This weakens global coupling and leads to error accumulation and drift during closed-loop rollouts. To address this, we propose \textbf{DRIFT-Net}. It employs a dual-branch design comprising a spectral branch and an image branch. The spectral branch is responsible for capturing global, large-scale low-frequency information, whereas the image branch focuses on local details and nonstationary structures. Specifically, we first perform controlled, lightweight mixing within the low-frequency range. Then we fuse the spectral and image paths at each layer via bandwise weighting, which avoids the width inflation and training instability caused by naive concatenation. The fused result is transformed back into the spatial domain and added to the image branch, thereby preserving both global structure and high-frequency details across scales. Compared with strong attention-based baselines, DRIFT-Net achieves lower error and higher throughput with fewer parameters under identical training settings and budget. On Navier--Stokes benchmarks, the relative $L_{1}$ error is reduced by 7\%--54\%, the parameter count decreases by about 15\%, and the throughput remains higher than scOT. Ablation studies and theoretical analyses further demonstrate the stability and effectiveness of this design. The code is available at https://github.com/cruiseresearchgroup/DRIFT-Net.
- Abstract(参考訳): ニューラルソルバを用いたPDEダイナミクスの学習は、古典的な数値ソルバに比べてウォールクロック効率と精度を著しく向上させることができる。
近年、PDEの基礎モデルは、代表例として、textsc{Poseidon} の scOT バックボーンを用いて、マルチスケールのウィンドウ自己アテンションを採用してきた。
しかし、その局所性のため、真に一貫したスペクトル結合は、深い積み重ねとウィンドウシフトによって徐々にしか伝播できない。
これにより、グローバルな結合が弱まり、クローズドループロールアウト時にエラーの蓄積とドリフトにつながる。
これを解決するために, textbf{DRIFT-Net}を提案する。
スペクトルブランチとイメージブランチからなるデュアルブランチ設計を採用している。
スペクトル分枝はグローバルで大規模な低周波情報の取得に責任を持ち、画像分枝は局所的な詳細や非定常構造に重点を置いている。
具体的には、まず低周波域内で制御された軽量混合を行う。
次に,バンドワイド重み付けにより各層におけるスペクトルと画像の経路を融合させる。これにより,ナイーブ結合による幅インフレーションやトレーニング不安定性を回避することができる。
融合結果は空間領域に変換され、イメージブランチに追加され、大域構造とスケールにわたる高周波の詳細の両方が保存される。
強い注意に基づくベースラインと比較すると、DRIFT-Netは同じトレーニング設定と予算の下で、少ないパラメータでエラーと高いスループットを達成する。
Navier-Stokesベンチマークでは、相対的な$L_{1}$エラーは7\%--54\%減少し、パラメータカウントは約15\%減少し、スループットは scOT よりも高いままである。
アブレーション研究と理論解析は、この設計の安定性と有効性をさらに証明している。
コードはhttps://github.com/cruiseresearchgroup/DRIFT-Netで公開されている。
関連論文リスト
- Harnessing Optimization Dynamics for Curvature-Informed Model Merging [17.42364575754576]
教師付き微調整では、複数の機能ベースのSFTチェックポイントを1つのモデルに統合する必要がある。
我々は、最適化トラジェクトリ・アウェア(OTA)マージと高速フィッシャーグラフティング(FFG)を導入する。
OTA+FFGは、強力な重量空間ベースラインよりもマージモデルの品質を改善し、負の転送を低減し、スパーシティレベルにわたって堅牢である。
論文 参考訳(メタデータ) (2025-09-14T08:59:53Z) - Gaussian Primitive Optimized Deformable Retinal Image Registration [19.882820812725523]
変形性網膜画像登録は、大きな同種領域とスパースだが重要な血管的特徴のため、非常に困難である。
これらの課題を克服するために、構造化メッセージパッシングを実行する新しい反復的フレームワークを導入する。
FIREデータセットの実験では、GPOはターゲット登録エラーを6.2,pxから2.4,pxに減らし、AUCを0.770から0.938に増やしている。
論文 参考訳(メタデータ) (2025-08-23T00:44:50Z) - PiT: Progressive Diffusion Transformer [50.46345527963736]
拡散変換器(DiT)は変換器アーキテクチャを用いて画像生成において顕著な性能を発揮する。
DiTは以前信じられていたようなグローバルな情報に大きく依存していない。
Pseudo Progressive Diffusion Transformer (PiT)を提案する。
論文 参考訳(メタデータ) (2025-05-19T15:02:33Z) - How Learnable Grids Recover Fine Detail in Low Dimensions: A Neural Tangent Kernel Analysis of Multigrid Parametric Encodings [106.3726679697804]
フーリエ特徴符号化(FFE)とマルチグリッドパラメトリック符号化(MPE)の2つの手法を比較した。
MPEは低次元マッピングの標準と見なされるが、MPEはそれらを上回り、高解像度で詳細な表現を学習することが多い。
我々は,MPEが学習可能な埋め込みではなく,グリッド構造を通じてネットワークの性能を向上させることを証明した。
論文 参考訳(メタデータ) (2025-04-18T02:18:08Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Degradation-Noise-Aware Deep Unfolding Transformer for Hyperspectral
Image Denoising [9.119226249676501]
ハイパースペクトル画像(HSI)は、帯域幅が狭いため、ノイズが多いことが多い。
HSIデータキューブのノイズを低減するため、モデル駆動型と学習型の両方の復調アルゴリズムが提案されている。
本稿では,これらの問題に対処するDNA-Net(Degradation-Noise-Aware Unfolding Network)を提案する。
論文 参考訳(メタデータ) (2023-05-06T13:28:20Z) - A differentiable short-time Fourier transform with respect to the window
length [4.0527583944137255]
ニューラルネットワークにおけるスペクトログラムの使用について,ウィンドウ長を降下勾配によって最適化可能な連続パラメータにすることで再検討する。
この貢献は主に理論的に理論的だが、修正されたSTFTを既存のニューラルネットワークに接続するのは簡単である。
論文 参考訳(メタデータ) (2022-08-23T11:38:33Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。