論文の概要: Fourier Learning Machines: Nonharmonic Fourier-Based Neural Networks for Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2509.08759v1
- Date: Wed, 10 Sep 2025 16:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.519841
- Title: Fourier Learning Machines: Nonharmonic Fourier-Based Neural Networks for Scientific Machine Learning
- Title(参考訳): フーリエ学習マシン:科学機械学習のための非調和フーリエベースニューラルネットワーク
- Authors: Mominul Rubel, Adam Meyers, Gabriel Nicolosi,
- Abstract要約: 本稿では,多次元非調和フーリエ系列を表現するために設計されたニューラルネットワーク(NN)アーキテクチャであるFourier Learning Machine(FLM)を紹介する。
FLMは、コサイン活性化機能を備えた単純なフィードフォワード構造を用いて、一連の周波数、振幅、位相シフトをトレーニング可能なパラメータとして学習する。
計算実験により、FLMの性能は、SIRENやバニラフィードフォワードNNのような既存のアーキテクチャと同等であり、しばしば優れていることが示された。
- 参考スコア(独自算出の注目度): 0.5097809301149341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Fourier Learning Machine (FLM), a neural network (NN) architecture designed to represent a multidimensional nonharmonic Fourier series. The FLM uses a simple feedforward structure with cosine activation functions to learn the frequencies, amplitudes, and phase shifts of the series as trainable parameters. This design allows the model to create a problem-specific spectral basis adaptable to both periodic and nonperiodic functions. Unlike previous Fourier-inspired NN models, the FLM is the first architecture able to represent a complete, separable Fourier basis in multiple dimensions using a standard Multilayer Perceptron-like architecture. A one-to-one correspondence between the Fourier coefficients and amplitudes and phase-shifts is demonstrated, allowing for the translation between a full, separable basis form and the cosine phase--shifted one. Additionally, we evaluate the performance of FLMs on several scientific computing problems, including benchmark Partial Differential Equations (PDEs) and a family of Optimal Control Problems (OCPs). Computational experiments show that the performance of FLMs is comparable, and often superior, to that of established architectures like SIREN and vanilla feedforward NNs.
- Abstract(参考訳): 本稿では,多次元非調和フーリエ系列を表現するために設計されたニューラルネットワーク(NN)アーキテクチャであるFourier Learning Machine(FLM)を紹介する。
FLMは、コサイン活性化機能を備えた単純なフィードフォワード構造を用いて、一連の周波数、振幅、位相シフトをトレーニング可能なパラメータとして学習する。
この設計により、周期関数と非周期関数の両方に適応可能な問題特異的スペクトル基底を作成することができる。
以前のフーリエにインスパイアされたNNモデルとは異なり、FLMは標準的なマルチレイヤーパーセプトロンのようなアーキテクチャを用いて複数の次元で完全な分離可能なフーリエ基底を表現することができる最初のアーキテクチャである。
フーリエ係数と振幅と位相シフトの1対1対応が示され、完全な分離可能な基底形式とコサイン位相シフトの変換が可能となった。
さらに、ベンチマーク偏微分方程式(PDE)や最適制御問題群(OCP)など、いくつかの科学計算問題におけるFLMの性能を評価する。
計算実験により、FLMの性能は、SIRENやバニラフィードフォワードNNのような既存のアーキテクチャと同等であり、しばしば優れていることが示された。
関連論文リスト
- Fourier Fingerprints of Ansatzes in Quantum Machine Learning [0.0]
本稿では,回路構造に依存するフーリエモード間の相関関係について述べる。
いくつかの一般的なアンサーゼに対して、フーリエ係数相関 (FCC) を計算し、フーリエ指紋を構築する。
本稿では、ランダムなフーリエ級数学習の問題に対して、FCCは、広く使われている表現性指標がそうでないにもかかわらず、アンサーゼの相対的な性能を正しく予測する方法を示す。
論文 参考訳(メタデータ) (2025-08-28T15:00:37Z) - Fourier Basis Mapping: A Time-Frequency Learning Framework for Time Series Forecasting [25.304812011127257]
本稿では,時間周波数空間におけるフーリエ基底展開とマッピングによる時間周波数特徴の統合手法を提案する。
本手法は時間的特性を保ちながら明確な周波数特徴を抽出する。
結果は、長期および短期の予測タスクにおいて、多様な実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2025-07-13T01:45:27Z) - Neural Fourier Modelling: A Highly Compact Approach to Time-Series Analysis [9.969451740838418]
時系列解析のためのコンパクトで強力なソリューションであるニューラルフーリエモデリング(NFM)を導入する。
NFM はフーリエ変換 (FT) の2つの重要な性質 (i) 有限長時系列をフーリエ領域の関数としてモデル化する能力 (ii) フーリエ領域内のデータ操作の能力 (ii) に基礎を置いている。
NFMは幅広いタスクで最先端のパフォーマンスを達成しており、テスト時にこれまで見つからなかったサンプリングレートを持つ時系列シナリオに挑戦する。
論文 参考訳(メタデータ) (2024-10-07T02:39:55Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Deep Fourier Up-Sampling [100.59885545206744]
フーリエ領域のアップサンプリングは、そのような局所的な性質に従わないため、より難しい。
これらの問題を解決するために理論的に健全なDeep Fourier Up-Sampling (FourierUp)を提案する。
論文 参考訳(メタデータ) (2022-10-11T06:17:31Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。