論文の概要: SpectraKAN: Conditioning Spectral Operators
- arxiv url: http://arxiv.org/abs/2602.05187v1
- Date: Thu, 05 Feb 2026 01:30:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.699019
- Title: SpectraKAN: Conditioning Spectral Operators
- Title(参考訳): SpectraKAN: コンディショニングスペクトル演算子
- Authors: Chun-Wun Cheng, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero,
- Abstract要約: 本稿では、スペクトル演算子を入力自身で条件付けし、スペクトルを入力条件付き積分演算子に変換するニューラル演算子SpectraKANを紹介する。
これは、静的時間履歴からコンパクトなグローバル表現を抽出し、それをシングルクエリのクロスアテンションによってマルチスケールのトランクを変調することで達成される。
さまざまなPDEベンチマークを通じて、SpectraKanは最先端のパフォーマンスを実現し、強力なベースラインよりもRMSEを最大49%削減した。
- 参考スコア(独自算出の注目度): 21.190440188964452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral neural operators, particularly Fourier Neural Operators (FNO), are a powerful framework for learning solution operators of partial differential equations (PDEs) due to their efficient global mixing in the frequency domain. However, existing spectral operators rely on static Fourier kernels applied uniformly across inputs, limiting their ability to capture multi-scale, regime-dependent, and anisotropic dynamics governed by the global state of the system. We introduce SpectraKAN, a neural operator that conditions the spectral operator on the input itself, turning static spectral convolution into an input-conditioned integral operator. This is achieved by extracting a compact global representation from spatio-temporal history and using it to modulate a multi-scale Fourier trunk via single-query cross-attention, enabling the operator to adapt its behaviour while retaining the efficiency of spectral mixing. We provide theoretical justification showing that this modulation converges to a resolution-independent continuous operator under mesh refinement and KAN gives smooth, Lipschitz-controlled global modulation. Across diverse PDE benchmarks, SpectraKAN achieves state-of-the-art performance, reducing RMSE by up to 49% over strong baselines, with particularly large gains on challenging spatio-temporal prediction tasks.
- Abstract(参考訳): スペクトルニューラル演算子、特にフーリエニューラル演算子(FNO)は、周波数領域における効率的な大域混合により偏微分方程式(PDE)の解演算子を学ぶための強力なフレームワークである。
しかし、既存のスペクトル演算子は、入力全体にわたって一様に適用された静的フーリエカーネルに依存しており、システムのグローバルな状態によって支配されるマルチスケール、状態依存、異方性ダイナミクスを捕捉する能力を制限する。
入力自体にスペクトル演算子を条件付けしたニューラル演算子であるSpectraKANを導入し、静的スペクトル畳み込みを入力条件付き積分演算子に変換する。
これは、時空間履歴からコンパクトなグローバル表現を抽出し、それをシングルクエリのクロスアテンションを介して、マルチスケールのフーリエトランクを変調することで、スペクトル混合の効率を維持しながら、その挙動を適応させることによって達成される。
我々は、この変調がメッシュ改良の下で分解能独立な連続作用素に収束し、カンは滑らかでリプシッツ制御された大域的な変調を与えることを示す理論的正当性を示す。
さまざまなPDEベンチマークを通じて、SpectraKanは最先端のパフォーマンスを実現し、強力なベースラインよりもRMSEを最大49%削減した。
関連論文リスト
- SFO: Learning PDE Operators via Spectral Filtering [25.390393080966422]
ユニバーサルスペクトル基底(USB)を用いた積分カーネルのパラメータ化を行うニューラル演算子を提案する。
急速に減衰する固有値のスペクトル係数のみを学習することにより、SFOは高効率な表現を実現する。
論文 参考訳(メタデータ) (2026-01-23T10:45:52Z) - The Vekua Layer: Exact Physical Priors for Implicit Neural Representations via Generalized Analytic Functions [0.0]
Inlicit Neural Representations (INR)は、物理場をパラメータ化するための強力なパラダイムとして登場した。
一般化分析理論に基づく微分スペクトル法を導入する。
本手法は物理インフォームドスペクトルフィルタとして効果的に機能することを示す。
論文 参考訳(メタデータ) (2025-12-11T21:57:21Z) - SAOT: An Enhanced Locality-Aware Spectral Transformer for Solving PDEs [8.678387342998613]
本稿では,ウェーブレット変換の空間周波数局在特性をトランスフォーマーアーキテクチャに取り入れることを検討した。
本稿では,局所性を考慮した特徴を効率的に学習するための線形計算複雑性を持つ新しいWavelet Attention (WA) モジュールを提案する。
我々はさらに、WAの局所的な焦点をフーリエベースのアテンションのグローバルな受容領域と統合するハイブリッドスペクトル変換器であるスペクトル注意演算子トランスフォーマー(SAOT)を開発した。
論文 参考訳(メタデータ) (2025-11-24T05:22:28Z) - STNet: Spectral Transformation Network for Solving Operator Eigenvalue Problem [10.27238431947351]
演算子固有値問題は、様々な科学分野や工学的応用において重要な役割を果たす。
最近のディープラーニング手法は、ニューラルネットワークを反復的に更新することで、この問題に対処するための効率的なアプローチを提供する。
本稿では,既存の学習手法を一貫して上回るスペクトル変換ネットワーク(STNet)を提案する。
論文 参考訳(メタデータ) (2025-10-28T01:43:54Z) - SpectrumFM: A Foundation Model for Intelligent Spectrum Management [99.08036558911242]
既存のインテリジェントスペクトル管理手法は、通常は小規模モデルに基づいており、認識精度、収束速度、一般化の顕著な制限に悩まされている。
本稿では、スペクトルFMと呼ばれる新しいスペクトル基盤モデルを提案し、スペクトル管理のための新しいパラダイムを確立する。
実験により、SpectrumFMは精度、堅牢性、適応性、少数ショット学習効率、収束速度の点で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-05-02T04:06:39Z) - Holistic Physics Solver: Learning PDEs in a Unified Spectral-Physical Space [54.13671100638092]
Holistic Physics Mixer (HPM) は、スペクトルと物理情報を統一された空間に統合するためのフレームワークである。
我々はHPMが精度と計算効率の両面で最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Blending Neural Operators and Relaxation Methods in PDE Numerical Solvers [3.2712166248850685]
HINTSは偏微分方程式のハイブリッド、反復、数値、移乗可能な解法である。
DeepONetのスペクトルバイアスを利用して固有モードのスペクトル間の収束挙動のバランスをとる。
離散化、計算領域、境界条件に関して柔軟である。
論文 参考訳(メタデータ) (2022-08-28T19:07:54Z) - Hyperspectral Image Denoising Using Non-convex Local Low-rank and Sparse
Separation with Spatial-Spectral Total Variation Regularization [49.55649406434796]
本研究では,HSI復調のためのロバストな主成分分析のための新しい非特異なアプローチを提案する。
我々は、ランクとスパースコンポーネントの両方に対する正確な近似を開発する。
シミュレーションと実HSIの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-08T11:48:46Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。