論文の概要: Factorized Fourier Neural Operators
- arxiv url: http://arxiv.org/abs/2111.13802v2
- Date: Tue, 30 Nov 2021 02:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 16:24:34.781180
- Title: Factorized Fourier Neural Operators
- Title(参考訳): 因子化フーリエニューラル演算子
- Authors: Alasdair Tran, Alexander Mathews, Lexing Xie, Cheng Soon Ong
- Abstract要約: Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
- 参考スコア(独自算出の注目度): 77.47313102926017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Fourier Neural Operator (FNO) is a learning-based method for efficiently
simulating partial differential equations. We propose the Factorized Fourier
Neural Operator (F-FNO) that allows much better generalization with deeper
networks. With a careful combination of the Fourier factorization, a shared
kernel integral operator across all layers, the Markov property, and residual
connections, F-FNOs achieve a six-fold reduction in error on the most turbulent
setting of the Navier-Stokes benchmark dataset. We show that our model
maintains an error rate of 2% while still running an order of magnitude faster
than a numerical solver, even when the problem setting is extended to include
additional contexts such as viscosity and time-varying forces. This enables the
same pretrained neural network to model vastly different conditions.
- Abstract(参考訳): Fourier Neural Operator (FNO) は偏微分方程式を効率的にシミュレートする学習法である。
本稿では,より深いネットワークでより優れた一般化を可能にする因子化フーリエニューラル演算子(f-fno)を提案する。
すべての層にまたがる共有カーネル積分演算子であるフーリエ分解とマルコフ特性と残差接続を慎重に組み合わせることで、F-FNOはナビエ・ストークスベンチマークデータセットの最も乱流的な設定でエラーを6倍に減らすことができる。
本モデルでは,粘度や時変力などの付加的な文脈を含む問題設定が拡張された場合でも,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持できることを示す。
これにより、同じ事前訓練されたニューラルネットワークが、非常に異なる条件をモデル化できる。
関連論文リスト
- Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Solving Seismic Wave Equations on Variable Velocity Models with Fourier
Neural Operator [3.2307366446033945]
本稿では,FNOに基づく解法を効率的に学習するための新しいフレームワークであるFourier Neural operator (PFNO)を提案する。
数値実験により、複雑な速度モデルによるFNOとPFNOの精度が示された。
PFNOは、従来の有限差分法と比較して、大規模なテストデータセットの計算効率が高いことを認めている。
論文 参考訳(メタデータ) (2022-09-25T22:25:57Z) - Bounding The Rademacher Complexity of Fourier Neural Operator [3.4960814625958787]
フーリエニューラル演算子(フーリエニューラル演算子、英: Fourier Neural operator、FNO)は、物理学に着想を得た機械学習手法の1つである。
本研究では,特定の群ノルムに基づくFNOのラデマッハ複雑性の境界について検討した。
さらに, 経験的一般化誤差とFNOのキャパシティの相関について検討した。
論文 参考訳(メタデータ) (2022-09-12T11:11:43Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。