論文の概要: SFO: Learning PDE Operators via Spectral Filtering
- arxiv url: http://arxiv.org/abs/2601.17090v1
- Date: Fri, 23 Jan 2026 10:45:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.222261
- Title: SFO: Learning PDE Operators via Spectral Filtering
- Title(参考訳): SFO:スペクトルフィルタリングによるPDE演算子学習
- Authors: Noam Koren, Rafael Moschopoulos, Kira Radinsky, Elad Hazan,
- Abstract要約: ユニバーサルスペクトル基底(USB)を用いた積分カーネルのパラメータ化を行うニューラル演算子を提案する。
急速に減衰する固有値のスペクトル係数のみを学習することにより、SFOは高効率な表現を実現する。
- 参考スコア(独自算出の注目度): 25.390393080966422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Partial differential equations (PDEs) govern complex systems, yet neural operators often struggle to efficiently capture the long-range, nonlocal interactions inherent in their solution maps. We introduce Spectral Filtering Operator (SFO), a neural operator that parameterizes integral kernels using the Universal Spectral Basis (USB), a fixed, global orthonormal basis derived from the eigenmodes of the Hilbert matrix in spectral filtering theory. Motivated by our theoretical finding that the discrete Green's functions of shift-invariant PDE discretizations exhibit spatial Linear Dynamical System (LDS) structure, we prove that these kernels admit compact approximations in the USB. By learning only the spectral coefficients of rapidly decaying eigenvalues, SFO achieves a highly efficient representation. Across six benchmarks, including reaction-diffusion, fluid dynamics, and 3D electromagnetics, SFO achieves state-of-the-art accuracy, reducing error by up to 40% relative to strong baselines while using substantially fewer parameters.
- Abstract(参考訳): 偏微分方程式 (Partial differential equation, PDE) は複雑なシステムを管理するが、ニューラル作用素は解写像に固有の長距離で非局所的な相互作用を効率的に捉えるのに苦労することが多い。
本稿では、スペクトルフィルタリング理論におけるヒルベルト行列の固有値から導かれる固定された大域的正規直交基底であるUniversal Spectral Basis (USB)を用いて、積分カーネルをパラメータ化する神経演算子であるスペクトルフィルタリング演算子(SFO)を紹介する。
シフト不変なPDE離散化の離散グリーン関数が空間線形力学系(LDS)構造を示すという理論的な発見により、これらのカーネルがUSBのコンパクト近似を許容していることが証明された。
急速に減衰する固有値のスペクトル係数のみを学習することにより、SFOは高効率な表現を実現する。
反応拡散、流体力学、および3次元電磁学を含む6つのベンチマークにおいて、SFOは最先端の精度を達成し、非常に少ないパラメータを使用しながら、強い基準線に対して最大40%の誤差を減少させる。
関連論文リスト
- Parallel Complex Diffusion for Scalable Time Series Generation [50.01609741902786]
PaCoDiは周波数領域における生成モデリングを分離するスペクトルネイティブアーキテクチャである。
本研究では,PaCoDiが生成品質と推論速度の両方において,既存のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-10T14:31:53Z) - SpectraKAN: Conditioning Spectral Operators [21.190440188964452]
本稿では、スペクトル演算子を入力自身で条件付けし、スペクトルを入力条件付き積分演算子に変換するニューラル演算子SpectraKANを紹介する。
これは、静的時間履歴からコンパクトなグローバル表現を抽出し、それをシングルクエリのクロスアテンションによってマルチスケールのトランクを変調することで達成される。
さまざまなPDEベンチマークを通じて、SpectraKanは最先端のパフォーマンスを実現し、強力なベースラインよりもRMSEを最大49%削減した。
論文 参考訳(メタデータ) (2026-02-05T01:30:25Z) - NeuraLSP: An Efficient and Rigorous Neural Left Singular Subspace Preconditioner for Conjugate Gradient Methods [49.84495044725856]
NeuraLSPはニューラルプレコンディショナーである。
提案手法は, インフレーションのランク付けにおける理論的保証と実証的堅牢性の両方を示し, 最大53%の高速化を実現した。
論文 参考訳(メタデータ) (2026-01-28T02:15:16Z) - The Adaptive Vekua Cascade: A Differentiable Spectral-Analytic Solver for Physics-Informed Representation [0.0]
適応型ニューラルネットワークは、連続体界を表現する強力なツールとして登場した。
スペクトルバイアスと次元の呪いの2つの基本的な病理に直面する。
本稿では,関数近似から解析的デカップリングを学習するハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-12-12T18:41:35Z) - The Vekua Layer: Exact Physical Priors for Implicit Neural Representations via Generalized Analytic Functions [0.0]
Inlicit Neural Representations (INR)は、物理場をパラメータ化するための強力なパラダイムとして登場した。
一般化分析理論に基づく微分スペクトル法を導入する。
本手法は物理インフォームドスペクトルフィルタとして効果的に機能することを示す。
論文 参考訳(メタデータ) (2025-12-11T21:57:21Z) - Separated-Variable Spectral Neural Networks: A Physics-Informed Learning Approach for High-Frequency PDEs [21.081644719506453]
分離可変スペクトルニューラルネットワーク(SV-SNN)は、ニューラルPDE解決におけるスペクトルバイアス問題に対処する新しいフレームワークである。
SV-SNNは1~3桁の精度向上を実現し,パラメータ数を90%以上削減した。
論文 参考訳(メタデータ) (2025-08-01T13:40:10Z) - LOGLO-FNO: Efficient Learning of Local and Global Features in Fourier Neural Operators [20.77877474840923]
高周波情報は機械学習における重要な課題である。
ディープニューラルネットワークは、低周波成分の学習に対するいわゆるスペクトルバイアスを示す。
放射結合スペクトル誤差に基づく新しい周波数感受性損失項を提案する。
論文 参考訳(メタデータ) (2025-04-05T19:35:04Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Blending Neural Operators and Relaxation Methods in PDE Numerical Solvers [3.2712166248850685]
HINTSは偏微分方程式のハイブリッド、反復、数値、移乗可能な解法である。
DeepONetのスペクトルバイアスを利用して固有モードのスペクトル間の収束挙動のバランスをとる。
離散化、計算領域、境界条件に関して柔軟である。
論文 参考訳(メタデータ) (2022-08-28T19:07:54Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。