論文の概要: Fourier Neural Networks as Function Approximators and Differential
Equation Solvers
- arxiv url: http://arxiv.org/abs/2005.13100v2
- Date: Wed, 28 Apr 2021 19:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:31:11.931537
- Title: Fourier Neural Networks as Function Approximators and Differential
Equation Solvers
- Title(参考訳): 関数近似器としてのフーリエニューラルネットワークと微分方程式解法
- Authors: Marieme Ngom and Oana Marin
- Abstract要約: 活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a Fourier neural network (FNN) that can be mapped directly to the
Fourier decomposition. The choice of activation and loss function yields
results that replicate a Fourier series expansion closely while preserving a
straightforward architecture with a single hidden layer. The simplicity of this
network architecture facilitates the integration with any other
higher-complexity networks, at a data pre- or postprocessing stage. We validate
this FNN on naturally periodic smooth functions and on piecewise continuous
periodic functions. We showcase the use of this FNN for modeling or solving
partial differential equations with periodic boundary conditions. The main
advantages of the current approach are the validity of the solution outside the
training region, interpretability of the trained model, and simplicity of use.
- Abstract(参考訳): 本稿では,フーリエ分解に直接マッピング可能なフーリエニューラルネットワーク(fnn)を提案する。
活性化と損失関数の選択は、単一の隠蔽層を持つ単純なアーキテクチャを保ちながら、フーリエ級数展開を密に再現する結果をもたらす。
このネットワークアーキテクチャの単純さは、データ前処理や後処理の段階で、他のより複雑なネットワークとの統合を促進する。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
周期的境界条件を持つ偏微分方程式のモデル化や解法にこのFNNを用いることを紹介する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
関連論文リスト
- Robust Fourier Neural Networks [1.0589208420411014]
フーリエ埋込層の後, 単純な対角層を導入することにより, ネットワークの騒音測定がより堅牢になることを示す。
特定の条件下では,フーリエ関数の非線形関数の雑音混合である関数も学習することができる。
論文 参考訳(メタデータ) (2024-09-03T16:56:41Z) - Physics-embedded Fourier Neural Network for Partial Differential Equations [35.41134465442465]
物理埋め込みフーリエニューラルネット(PeFNN)を柔軟かつ説明可能な誤差で導入する。
PeFNNは運動量保存を強制し、解釈可能な非線形表現を得るように設計されている。
我々は,大規模な洪水シミュレーションのような実世界のアプリケーションに挑戦する上で,その優れた性能を実証する。
論文 参考訳(メタデータ) (2024-07-15T18:30:39Z) - Discretization Error of Fourier Neural Operators [5.121705282248479]
オペレータ学習は、データから関数空間間のマップを近似するために設計された機械学習の変種である。
Fourier Neural Operator (FNO) は、演算子学習に使用される一般的なモデルアーキテクチャである。
論文 参考訳(メタデータ) (2024-05-03T16:28:05Z) - Fourier Continuation for Exact Derivative Computation in
Physics-Informed Neural Operators [53.087564562565774]
PINOは、偏微分方程式を学習するための有望な実験結果を示す機械学習アーキテクチャである。
非周期問題に対して、フーリエ継続(FC)を利用して正確な勾配法をPINOに適用するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Deep Fourier Up-Sampling [100.59885545206744]
フーリエ領域のアップサンプリングは、そのような局所的な性質に従わないため、より難しい。
これらの問題を解決するために理論的に健全なDeep Fourier Up-Sampling (FourierUp)を提案する。
論文 参考訳(メタデータ) (2022-10-11T06:17:31Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。