論文の概要: Bounding The Rademacher Complexity of Fourier Neural Operator
- arxiv url: http://arxiv.org/abs/2209.05150v1
- Date: Mon, 12 Sep 2022 11:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:31:59.249974
- Title: Bounding The Rademacher Complexity of Fourier Neural Operator
- Title(参考訳): フーリエニューラル演算子のラデマッハ複雑性のバウンディング
- Authors: Taeyoung Kim and Myungjoo Kang
- Abstract要約: フーリエニューラル演算子(フーリエニューラル演算子、英: Fourier Neural operator、FNO)は、物理学に着想を得た機械学習手法の1つである。
本研究では,特定の群ノルムに基づくFNOのラデマッハ複雑性の境界について検討した。
さらに, 経験的一般化誤差とFNOのキャパシティの相関について検討した。
- 参考スコア(独自算出の注目度): 3.4960814625958787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A Fourier neural operator (FNO) is one of the physics-inspired machine
learning methods. In particular, it is a neural operator. In recent times,
several types of neural operators have been developed, e.g., deep operator
networks, GNO, and MWTO. Compared with other models, the FNO is computationally
efficient and can learn nonlinear operators between function spaces independent
of a certain finite basis. In this study, we investigated the bounding of the
Rademacher complexity of the FNO based on specific group norms. Using capacity
based on these norms, we bound the generalization error of the FNO model. In
addition, we investigated the correlation between the empirical generalization
error and the proposed capacity of FNO. Based on this investigation, we gained
insight into the impact of the model architecture on the generalization error
and estimated the amount of information about FNO models stored in various
types of capacities.
- Abstract(参考訳): フーリエニューラルオペレータ(fourier neural operator, fno)は、物理学に触発された機械学習手法の1つである。
特に、神経演算子である。
近年では、ディープオペレータネットワーク、GNO、MWTOなど、いくつかのタイプのニューラルオペレータが開発されている。
他のモデルと比較して、FNOは計算的に効率的であり、ある有限基底に依存しない函数空間間の非線形作用素を学習することができる。
本研究では,特定の群ノルムに基づくfnoのラデマシェ複雑性の境界について検討した。
これらのノルムに基づくキャパシティを用いて、FNOモデルの一般化誤差を限定する。
さらに,経験的一般化誤差と提案するfnoの容量との関係について検討した。
そこで本研究では,モデルアーキテクチャが一般化誤差に与える影響を把握し,FNOモデルに関する情報を様々な種類の容量に蓄積した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Nonlocality and Nonlinearity Implies Universality in Operator Learning [8.83910715280152]
ニューラル作用素アーキテクチャは、無限次元バナッハ空間の間の作用素を近似する。
函数空間間の作用素の一般近似が非局所的かつ非線形であることは明らかである。
これら2つの属性をどのように組み合わせて、普遍近似を導出するかを示す。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。