論文の概要: Regularized Random Fourier Features and Finite Element Reconstruction for Operator Learning in Sobolev Space
- arxiv url: http://arxiv.org/abs/2512.17884v1
- Date: Fri, 19 Dec 2025 18:36:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.530662
- Title: Regularized Random Fourier Features and Finite Element Reconstruction for Operator Learning in Sobolev Space
- Title(参考訳): ソボレフ空間における演算子学習のための正規化ランダムフーリエ特徴と有限要素再構成
- Authors: Xinyue Yu, Hayden Schaeffer,
- Abstract要約: カーネルベースの演算子学習は、標準的な方法よりも少ないトレーニングを必要とする正確で理論上正当化された近似を提供することができる。
有限要素再構成マップ(RRFF-FEM)と組み合わせた正規化ランダムフーリエ特徴量(RRFF)手法を提案する。
RRFF と RRFF-FEM は雑音に対して頑健であり,非正規化ランダム特徴モデルと比較してトレーニング時間を短縮し,性能の向上を図っている。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning is a data-driven approximation of mappings between infinite-dimensional function spaces, such as the solution operators of partial differential equations. Kernel-based operator learning can offer accurate, theoretically justified approximations that require less training than standard methods. However, they can become computationally prohibitive for large training sets and can be sensitive to noise. We propose a regularized random Fourier feature (RRFF) approach, coupled with a finite element reconstruction map (RRFF-FEM), for learning operators from noisy data. The method uses random features drawn from multivariate Student's $t$ distributions, together with frequency-weighted Tikhonov regularization that suppresses high-frequency noise. We establish high-probability bounds on the extreme singular values of the associated random feature matrix and show that when the number of features $N$ scales like $m \log m$ with the number of training samples $m$, the system is well-conditioned, which yields estimation and generalization guarantees. Detailed numerical experiments on benchmark PDE problems, including advection, Burgers', Darcy flow, Helmholtz, Navier-Stokes, and structural mechanics, demonstrate that RRFF and RRFF-FEM are robust to noise and achieve improved performance with reduced training time compared to the unregularized random feature model, while maintaining competitive accuracy relative to kernel and neural operator tests.
- Abstract(参考訳): 演算子学習(Operator learning)は、偏微分方程式の解作用素のような無限次元函数空間間の写像のデータ駆動近似である。
カーネルベースの演算子学習は、標準的な方法よりも少ないトレーニングを必要とする正確で理論上正当化された近似を提供することができる。
しかし、大きなトレーニングセットでは計算が禁止され、ノイズに敏感になる可能性がある。
雑音データから演算子を学習するための有限要素再構成マップ (RRFF-FEM) と組み合わせた正規化ランダムフーリエ特徴 (RRFF) 手法を提案する。
この方法は、多変量学生の$t$分布から引き出されたランダムな特徴と、高周波ノイズを抑制する周波数重み付きTikhonov正規化を用いる。
我々は、関連するランダム特徴行列の極端特異値上の高確率境界を確立し、$N$が$m \log m$のようなスケールでトレーニングサンプルの数が$m$である場合、システムは十分に条件付きであり、推定と一般化の保証が得られることを示す。
アドベクション、バーガース、ダーシーフロー、ヘルムホルツ、ナヴィアー・ストークス、構造力学などのベンチマークPDE問題に関する詳細な数値実験では、RRFFとRRFF-FEMはノイズに対して頑健であり、非正規化されたランダムな特徴モデルと比較してトレーニング時間を短縮し、カーネルやニューラル演算子テストと競合する精度を維持しながら、性能を向上させることが示されている。
関連論文リスト
- Scale-Adaptive Generative Flows for Multiscale Scientific Data [20.583125441867434]
フローベースの生成モデルは、マルチスケールのフーリエスペクトルで科学データをモデル化する際の課題に直面することがある。
鍵となる洞察は、ノイズが目標データよりも滑らかでないことであり、初期時間に近い境界ドリフト場を確保することである。
スペクトル整合雑音は標準的なホワイトノイズ法に比べて数値効率が向上することを示す。
論文 参考訳(メタデータ) (2025-09-03T03:17:49Z) - Beyond Universal Approximation Theorems: Algorithmic Uniform Approximation by Neural Networks Trained with Noisy Data [12.815892583089443]
本稿では,N$ノイズ学習サンプルから一様近似器を構成するアーキテクチャ固有のランダム化学習アルゴリズムを提案する。
学習したニューラルネットワークは、古典的UATで想定される理想化されたノイズレスサンプリングの下で消滅する対数的要因を考慮し、最小限の最大(非ランダム)パラメータを実現する。
論文 参考訳(メタデータ) (2025-08-31T16:20:27Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Beyond Regular Grids: Fourier-Based Neural Operators on Arbitrary Domains [13.56018270837999]
本稿では,ニューラルネットワークを任意の領域に拡張する簡単な手法を提案する。
このような直接スペクトル評価の効率的な実装*は、既存のニューラル演算子モデルと結合する。
提案手法により,ニューラルネットワークを任意の点分布に拡張し,ベースライン上でのトレーニング速度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T09:01:20Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Denoising Score Matching with Random Fourier Features [11.60130641443281]
Kernel Exponential Family を用いたDenoising Score matching の解析式をモデル分布として導出する。
得られた式はノイズのばらつきに明示的に依存するため、バリデーション損失はノイズレベルを調整するために簡単に使用できる。
論文 参考訳(メタデータ) (2021-01-13T18:02:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。