論文の概要: Point-Calibrated Spectral Neural Operators
- arxiv url: http://arxiv.org/abs/2410.11382v1
- Date: Tue, 15 Oct 2024 08:19:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:00:23.638319
- Title: Point-Calibrated Spectral Neural Operators
- Title(参考訳): 点校正型スペクトルニューラル演算子
- Authors: Xihang Yue, Linchao Zhu, Yi Yang,
- Abstract要約: 点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
点平衡スペクトル演算子は点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
- 参考スコア(独自算出の注目度): 54.13671100638092
- License:
- Abstract: Two typical neural models have been extensively studied for operator learning, learning in spatial space via attention mechanism or learning in spectral space via spectral analysis technique such as Fourier Transform. Spatial learning enables point-level flexibility but lacks global continuity constraint, while spectral learning enforces spectral continuity prior but lacks point-wise adaptivity. This work innovatively combines the continuity prior and the point-level flexibility, with the introduced Point-Calibrated Spectral Transform. It achieves this by calibrating the preset spectral eigenfunctions with the predicted point-wise frequency preference via neural gate mechanism. Beyond this, we introduce Point-Calibrated Spectral Neural Operators, which learn operator mappings by approximating functions with the point-level adaptive spectral basis, thereby not only preserving the benefits of spectral prior but also boasting the superior adaptability comparable to the attention mechanism. Comprehensive experiments demonstrate its consistent performance enhancement in extensive PDE solving scenarios.
- Abstract(参考訳): 2つの典型的なニューラルモデルは、演算子学習、注意機構による空間空間学習、フーリエ変換のようなスペクトル解析技術によるスペクトル空間学習のために広く研究されている。
空間学習は点レベルの柔軟性を実現するが、大域的な連続性制約を欠く一方、スペクトル学習はスペクトル連続性を前もって強制するが、点レベルの適応性は欠く。
この研究は、先行する連続性と点レベルの柔軟性を革新的に組み合わせ、導入したPoint-Calibrated Spectral Transformと組み合わせている。
このことは、ニューラルネットワークゲート機構を介して予測されたポイントワイド周波数優先により、予め設定されたスペクトル固有関数を校正することで達成される。
点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習し、スペクトルの利点を事前に保存するだけでなく、注意機構に匹敵する優れた適応性を誇示する。
包括的実験は、広範なPDE解決シナリオにおいて、一貫した性能向上を示す。
関連論文リスト
- Spectral Adapter: Fine-Tuning in Spectral Space [45.72323731094864]
本研究では, 既訓練重量行列のスペクトル情報を微調整手順に組み込むことにより, 現在のPEFT法の強化について検討した。
提案するファインチューニングモデルにより,パラメータ効率とチューニング性能が向上し,マルチアダプタ融合のメリットが期待できることを示す。
論文 参考訳(メタデータ) (2024-05-22T19:36:55Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Boosting the Generalization Ability for Hyperspectral Image Classification using Spectral-spatial Axial Aggregation Transformer [14.594398447576188]
ハイパースペクトル画像分類(HSIC)タスクでは、最も一般的に使われているモデル検証パラダイムは、画素単位のランダムサンプリングによってトレーニング・テストデータセットを分割することである。
私たちの実験では、トレーニングとテストデータセットが多くの情報を共有しているため、高い精度が達成できたことが分かりました。
本稿では,データセット分割間の一般化を保ったスペクトル-空間軸アグリゲーション変換器モデルSaaFormerを提案する。
論文 参考訳(メタデータ) (2023-06-29T07:55:43Z) - Learning Neural Eigenfunctions for Unsupervised Semantic Segmentation [12.91586050451152]
スペクトルクラスタリング(英: Spectral clustering)は、異なるクラスタを構築するために画素のスペクトル埋め込みを計算する理論上の解である。
現在のアプローチは、まだスペクトル分解の非効率性と、試験データに適用する際の柔軟性に悩まされている。
この研究は、スペクトルクラスタリングをニューラルネットワークに基づく固有関数を用いてスペクトル埋め込みを生成するパラメトリックアプローチとしてキャストすることで、これらの問題に対処する。
実際には、神経固有関数は軽量であり、事前訓練されたモデルの特徴を入力とし、トレーニング効率を改善し、より密集した予測のための事前訓練されたモデルの可能性を解き放つ。
論文 参考訳(メタデータ) (2023-04-06T03:14:15Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Robust, Nonparametric, Efficient Decomposition of Spectral Peaks under
Distortion and Interference [0.0]
本稿では, 高速フーリエ変換を用いて, 周波数スペクトルのスペクトルピークの分解法を提案する。
スペクトルのピークを擬対称関数としてモデル化する。そこでは、距離が大きくなると中心周波数の周りの非増加的な振る舞いが制約となる。
我々のアプローチは、観測システムによって引き起こされる可能性のあるスペクトルの任意の歪み、干渉、ノイズに対してより堅牢である。
論文 参考訳(メタデータ) (2022-04-18T17:08:37Z) - Reconstructing spectral functions via automatic differentiation [30.015034534260664]
ユークリッドグリーン関数からスペクトル関数を再構成することは、多体物理学において重要な逆問題である。
本稿では,プロパゲータオブザーバからのスペクトル再構成のための汎用ツールとして,自動微分(AD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T18:09:49Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z) - Convolutional Spectral Kernel Learning [21.595130250234646]
逆フーリエ変換に基づく解釈可能な畳み込みスペクトルカーネルネットワーク(textttCSKN)を構築する。
一般化誤差境界を導出し、性能を改善するために2つの正規化器を導入する。
実世界のデータセットを用いた実験は、学習フレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2020-02-28T14:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。