論文の概要: Discretization Error of Fourier Neural Operators
- arxiv url: http://arxiv.org/abs/2405.02221v2
- Date: Thu, 25 Sep 2025 20:39:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.810966
- Title: Discretization Error of Fourier Neural Operators
- Title(参考訳): フーリエニューラル演算子の離散化誤差
- Authors: Samuel Lanthaler, Andrew M. Stuart, Margaret Trautner,
- Abstract要約: オペレータ学習は、データから関数空間間のマップを近似するために設計された機械学習の変種である。
フーリエニューラル演算子(フーリエニューラル演算子、FNO)は、演算子学習に使用される主要なモデルアーキテクチャの1つである。
- 参考スコア(独自算出の注目度): 7.374830788996047
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Operator learning is a variant of machine learning that is designed to approximate maps between function spaces from data. The Fourier Neural Operator (FNO) is one of the main model architectures used for operator learning. The FNO combines linear and nonlinear operations in physical space with linear operations in Fourier space, leading to a parameterized map acting between function spaces. Although in definition, FNOs are objects in continuous space and perform convolutions on a continuum, their implementation is a discretized object performing computations on a grid, allowing efficient implementation via the FFT. Thus, there is a discretization error between the continuum FNO definition and the discretized object used in practice that is separate from other previously analyzed sources of model error. We examine this discretization error here and obtain algebraic rates of convergence in terms of the grid resolution as a function of the input regularity. Numerical experiments that validate the theory and describe model stability are performed. In addition, an algorithm is presented that leverages the discretization error and model error decomposition to optimize computational training time.
- Abstract(参考訳): オペレータ学習は、データから関数空間間のマップを近似するために設計された機械学習の変種である。
フーリエニューラル演算子(フーリエニューラル演算子、FNO)は、演算子学習に使用される主要なモデルアーキテクチャの1つである。
FNOは、物理空間における線型および非線形の操作とフーリエ空間における線型の演算を結合し、函数空間間で作用するパラメータ化された写像をもたらす。
定義上は、FNOは連続空間のオブジェクトであり、連続体上で畳み込みを行うが、その実装はグリッド上で計算を行う離散化されたオブジェクトであり、FFTによる効率的な実装を可能にする。
したがって、連続体 FNO 定義と実際に使用される離散化オブジェクトとの間には、以前に分析された他のモデルエラー源とは分離した離散化誤差が存在する。
ここでは、この離散化誤差を検証し、入力正則関数としてのグリッド分解能の観点から収束の代数的率を求める。
理論を検証し、モデルの安定性を記述する数値実験を行う。
さらに、離散化誤差とモデル誤差分解を利用して計算訓練時間を最適化するアルゴリズムを提案する。
関連論文リスト
- Graph-Based Operator Learning from Limited Data on Irregular Domains [17.225653683970393]
演算子学習は、特に偏微分方程式(PDE)の文脈において、入力関数から出力解への写像を近似しようとする
我々は,不規則なサンプル空間点からグラフを構築し,注目度を高めたグラフニューラルネツーク(GNN)を活用することにより,この制限に対処するグラフベースの演算子学習(GOLA)フレームワークを提案する。
提案手法は,データスカース体制において,不規則領域に対する強い一般化と効率を示すベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-25T01:06:32Z) - Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - An operator learning perspective on parameter-to-observable maps [0.716879432974126]
本稿では,有限次元ベクトル入力や出力に対応可能なフーリエニューラルマッピングフレームワークを提案する。
自然な疑問は、パラメータ・トゥ・オブザーバブル(PtO)マップをエンドツーエンドに学習するか、あるいは最初に解演算子を学習し、次にフルフィールドの解からオブザーバブルを計算するかである。
論文 参考訳(メタデータ) (2024-02-08T20:07:47Z) - Domain Agnostic Fourier Neural Operators [15.29112632863168]
本研究では,不規則なジオメトリと進化するドメインを持つサロゲートを学習するために,ドメインに依存しないフーリエニューラル演算子(DAFNO)を導入する。
鍵となる考え方は、FNOの積分層アーキテクチャに滑らかな特性関数を組み込むことである。
DAFNOはベースラインニューラル演算子モデルと比較して最先端の精度を達成した。
論文 参考訳(メタデータ) (2023-04-30T13:29:06Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。