論文の概要: Controlling Statistical, Discretization, and Truncation Errors in Learning Fourier Linear Operators
- arxiv url: http://arxiv.org/abs/2408.09004v2
- Date: Thu, 06 Feb 2025 21:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:54:15.067989
- Title: Controlling Statistical, Discretization, and Truncation Errors in Learning Fourier Linear Operators
- Title(参考訳): フーリエ線形演算子学習における統計的, 離散化, トラニケーション誤差の制御
- Authors: Unique Subedi, Ambuj Tewari,
- Abstract要約: 本稿では,Fourier Neural Operatorアーキテクチャの線形層をモデル問題として,演算子学習の学習理論の基礎について考察する。
まず, 有限標本サイズによる統計的誤差, 演算子の有限階近似からの切り出し誤差, 有限個の領域点上の関数データを扱うことによる離散化誤差の3つの主な誤差を同定する。
- 参考スコア(独自算出の注目度): 17.98959620987217
- License:
- Abstract: We study learning-theoretic foundations of operator learning, using the linear layer of the Fourier Neural Operator architecture as a model problem. First, we identify three main errors that occur during the learning process: statistical error due to finite sample size, truncation error from finite rank approximation of the operator, and discretization error from handling functional data on a finite grid of domain points. Finally, we analyze a Discrete Fourier Transform (DFT) based least squares estimator, establishing both upper and lower bounds on the aforementioned errors.
- Abstract(参考訳): 本稿では,Fourier Neural Operatorアーキテクチャの線形層をモデル問題として,演算子学習の学習理論の基礎について考察する。
まず, 有限標本サイズによる統計的誤差, 演算子の有限階近似からの切り出し誤差, 有限個の領域点上の関数データを扱うことによる離散化誤差の3つの主な誤差を同定する。
最後に、離散フーリエ変換(DFT)に基づく最小二乗推定器を解析し、上記の誤差に対して上下境界を確立する。
関連論文リスト
- Unveiling the Statistical Foundations of Chain-of-Thought Prompting Methods [59.779795063072655]
CoT(Chain-of-Thought)の促進とその変種は、多段階推論問題を解決する効果的な方法として人気を集めている。
統計的推定の観点からCoTのプロンプトを解析し,その複雑さを包括的に評価する。
論文 参考訳(メタデータ) (2024-08-25T04:07:18Z) - A note on the error analysis of data-driven closure models for large eddy simulations of turbulence [2.4548283109365436]
データ駆動型乱流閉鎖モデルを用いた流路予測における誤差伝搬の数学的定式化について述べる。
データ駆動クロージャモデルを用いて予測誤差の上限を求める。
また, この誤差は, ロールアウト時間とシステムジャコビアン上界とともに指数関数的に伝播することを示した。
論文 参考訳(メタデータ) (2024-05-27T19:20:22Z) - Discretization Error of Fourier Neural Operators [5.121705282248479]
オペレータ学習は、データから関数空間間のマップを近似するために設計された機械学習の変種である。
Fourier Neural Operator (FNO) は、演算子学習に使用される一般的なモデルアーキテクチャである。
論文 参考訳(メタデータ) (2024-05-03T16:28:05Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Accelerated Neural Network Training with Rooted Logistic Objectives [13.400503928962756]
我々は、少なくともロジスティック損失と同じくらい厳密なエムの厳密凸関数列を導出する。
その結果,根付き損失関数による学習はより早く収束し,性能が向上した。
論文 参考訳(メタデータ) (2023-10-05T20:49:48Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Large-Scale Learning with Fourier Features and Tensor Decompositions [3.6930948691311007]
決定論的フーリエ特徴のテンソル積構造を利用して、モデルパラメータを低ランクテンソル分解として表現することができる。
数値実験により、我々の低ランクテンソル法が対応する非パラメトリックモデルと同じ性能を得ることを示す。
論文 参考訳(メタデータ) (2021-09-03T14:12:53Z) - Choose a Transformer: Fourier or Galerkin [0.0]
我々は,データ駆動型演算子学習問題に対して,最新技術であるTransformer in Attention Is All You Needの自己注意を適用した。
スケールしたドット積の注意におけるソフトマックス正規化は十分であるが必要ではないことを示し、ペトロフ・ガレルキン射影として線形変項の近似能力を証明した。
本稿では,ビルガース方程式,インターフェースダーシー流,および逆インターフェース係数同定問題を含む3つの演算子学習実験について述べる。
論文 参考訳(メタデータ) (2021-05-31T14:30:53Z) - Computational Barriers to Estimation from Low-Degree Polynomials [81.67886161671379]
本研究では,隠れ構造物の存在を検知する作業において,低次構造物のパワーについて検討する。
大規模な「信号+雑音」問題に対して、任意の程度に達成可能な最良の平均二乗誤差に対して、ユーザフレンドリな下界を与える。
応用として,植込みサブマトリクスに対する低次平均2乗誤差の厳密な評価と高密度サブグラフ問題について述べる。
論文 参考訳(メタデータ) (2020-08-05T17:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。