論文の概要: Fourier Neural Networks as Function Approximators and Differential
Equation Solvers
- arxiv url: http://arxiv.org/abs/2005.13100v2
- Date: Wed, 28 Apr 2021 19:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:31:11.931537
- Title: Fourier Neural Networks as Function Approximators and Differential
Equation Solvers
- Title(参考訳): 関数近似器としてのフーリエニューラルネットワークと微分方程式解法
- Authors: Marieme Ngom and Oana Marin
- Abstract要約: 活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a Fourier neural network (FNN) that can be mapped directly to the
Fourier decomposition. The choice of activation and loss function yields
results that replicate a Fourier series expansion closely while preserving a
straightforward architecture with a single hidden layer. The simplicity of this
network architecture facilitates the integration with any other
higher-complexity networks, at a data pre- or postprocessing stage. We validate
this FNN on naturally periodic smooth functions and on piecewise continuous
periodic functions. We showcase the use of this FNN for modeling or solving
partial differential equations with periodic boundary conditions. The main
advantages of the current approach are the validity of the solution outside the
training region, interpretability of the trained model, and simplicity of use.
- Abstract(参考訳): 本稿では,フーリエ分解に直接マッピング可能なフーリエニューラルネットワーク(fnn)を提案する。
活性化と損失関数の選択は、単一の隠蔽層を持つ単純なアーキテクチャを保ちながら、フーリエ級数展開を密に再現する結果をもたらす。
このネットワークアーキテクチャの単純さは、データ前処理や後処理の段階で、他のより複雑なネットワークとの統合を促進する。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
周期的境界条件を持つ偏微分方程式のモデル化や解法にこのFNNを用いることを紹介する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
関連論文リスト
- Neural Operators with Localized Integral and Differential Kernels [81.66974615188359]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Domain Agnostic Fourier Neural Operators [15.29112632863168]
本研究では,不規則なジオメトリと進化するドメインを持つサロゲートを学習するために,ドメインに依存しないフーリエニューラル演算子(DAFNO)を導入する。
鍵となる考え方は、FNOの積分層アーキテクチャに滑らかな特性関数を組み込むことである。
DAFNOはベースラインニューラル演算子モデルと比較して最先端の精度を達成した。
論文 参考訳(メタデータ) (2023-04-30T13:29:06Z) - Fourier-RNNs for Modelling Noisy Physics Data [0.0]
本稿では、従来のRNNアーキテクチャとフーリエニューラル演算子(FNO)との整合性を利用して、物理関連データを扱うための新しいシーケンシャルモデルを提案する。
フーリエ-RNNはPDEデータを扱う際にFNOと同一動作するが、非マルコフデータのモデリングにおいてFNOと従来のRNNより優れている。
論文 参考訳(メタデータ) (2023-02-13T17:22:07Z) - Fourier Continuation for Exact Derivative Computation in
Physics-Informed Neural Operators [53.087564562565774]
PINOは、偏微分方程式を学習するための有望な実験結果を示す機械学習アーキテクチャである。
非周期問題に対して、フーリエ継続(FC)を利用して正確な勾配法をPINOに適用するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Deep Fourier Up-Sampling [100.59885545206744]
フーリエ領域のアップサンプリングは、そのような局所的な性質に従わないため、より難しい。
これらの問題を解決するために理論的に健全なDeep Fourier Up-Sampling (FourierUp)を提案する。
論文 参考訳(メタデータ) (2022-10-11T06:17:31Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Seeing Implicit Neural Representations as Fourier Series [13.216389226310987]
Inlicit Neural Representation (INR)は低次元問題領域における高周波関数を表現するために多層パーセプトロンを使用する。
これらの表現は、複雑な3Dオブジェクトやシーンに関連するタスクについて、最先端の結果を得た。
この研究は2つの方法間の接続を分析し、フーリエ写像されたパーセプトロンが構造的に1つの隠蔽層SIRENと似ていることを示す。
論文 参考訳(メタデータ) (2021-09-01T08:40:20Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。