論文の概要: Fourier Neural Operators for Non-Markovian Processes:Approximation Theorems and Experiments
- arxiv url: http://arxiv.org/abs/2507.17887v1
- Date: Wed, 23 Jul 2025 19:30:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.432017
- Title: Fourier Neural Operators for Non-Markovian Processes:Approximation Theorems and Experiments
- Title(参考訳): 非マルコフ過程に対するフーリエニューラル演算子:近似理論と実験
- Authors: Wonjae Lee, Taeyoung Kim, Hyungbin Park,
- Abstract要約: 本稿では,ミラーパッド型ニューラル演算子(MFNO)を演算子ベースニューラルネットワークとして導入する。
MFNOはミラーパディングを組み込むことで標準的なフーリエニューラル演算子(FNO)を拡張し、非周期的な入力を処理することができる。
我々は、MFNOsが経路依存微分方程式の解と分数的ブラウン運動の任意の精度への変換を近似できることを厳密に証明する。
- 参考スコア(独自算出の注目度): 2.84475965465923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces an operator-based neural network, the mirror-padded Fourier neural operator (MFNO), designed to learn the dynamics of stochastic systems. MFNO extends the standard Fourier neural operator (FNO) by incorporating mirror padding, enabling it to handle non-periodic inputs. We rigorously prove that MFNOs can approximate solutions of path-dependent stochastic differential equations and Lipschitz transformations of fractional Brownian motions to an arbitrary degree of accuracy. Our theoretical analysis builds on Wong--Zakai type theorems and various approximation techniques. Empirically, the MFNO exhibits strong resolution generalization--a property rarely seen in standard architectures such as LSTMs, TCNs, and DeepONet. Furthermore, our model achieves performance that is comparable or superior to these baselines while offering significantly faster sample path generation than classical numerical schemes.
- Abstract(参考訳): 本稿では,ミラーパッド型フーリエニューラル演算子 (MFNO) を演算子ベースニューラルネットワークとして導入し,確率系の力学を学習する。
MFNOはミラーパディングを組み込むことで標準的なフーリエニューラル演算子(FNO)を拡張し、非周期的な入力を処理することができる。
我々は、MFNOsが経路依存確率微分方程式の解と分数的ブラウン運動のリプシッツ変換を任意の精度で近似できることを厳密に証明する。
MFNOは、LSTM、TCN、DeepONetなどの標準アーキテクチャではめったに見られない特性である。
さらに,本モデルでは,従来の数値モデルよりもはるかに高速なサンプルパス生成を実現するとともに,これらのベースラインに匹敵する,あるいは優れた性能を実現する。
関連論文リスト
- Hilbert Neural Operator: Operator Learning in the Analytic Signal Domain [0.0]
我々は,新しいニューラル演算子アーキテクチャである textbfHilbert Neural Operator (HNO) を導入する。
HNOは、まず入力信号をヒルベルト変換を介してその解析表現にマッピングすることによって機能する。
このアーキテクチャによりHNOは、因果系、位相感受性系、非定常系の演算子をより効果的にモデル化できるという仮説を立てる。
論文 参考訳(メタデータ) (2025-08-06T21:12:15Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Beyond Regular Grids: Fourier-Based Neural Operators on Arbitrary Domains [13.56018270837999]
本稿では,ニューラルネットワークを任意の領域に拡張する簡単な手法を提案する。
このような直接スペクトル評価の効率的な実装*は、既存のニューラル演算子モデルと結合する。
提案手法により,ニューラルネットワークを任意の点分布に拡張し,ベースライン上でのトレーニング速度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T09:01:20Z) - Deep Stochastic Processes via Functional Markov Transition Operators [59.55961312230447]
本稿では,ニューラルパラメータ化マルコフ遷移作用素の列を関数空間に重ねて構築した新しいプロセス群(SP)を紹介する。
これらのマルコフ遷移作用素は、SPの交換可能性と整合性を維持することができることを証明している。
論文 参考訳(メタデータ) (2023-05-24T21:15:23Z) - Nonlocality and Nonlinearity Implies Universality in Operator Learning [8.83910715280152]
ニューラル作用素アーキテクチャは、無限次元バナッハ空間の間の作用素を近似する。
函数空間間の作用素の一般近似が非局所的かつ非線形であることは明らかである。
これら2つの属性をどのように組み合わせて、普遍近似を導出するかを示す。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Bounding The Rademacher Complexity of Fourier Neural Operator [3.4960814625958787]
フーリエニューラル演算子(フーリエニューラル演算子、英: Fourier Neural operator、FNO)は、物理学に着想を得た機械学習手法の1つである。
本研究では,特定の群ノルムに基づくFNOのラデマッハ複雑性の境界について検討した。
さらに, 経験的一般化誤差とFNOのキャパシティの相関について検討した。
論文 参考訳(メタデータ) (2022-09-12T11:11:43Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。