論文の概要: Monte Carlo-Type Neural Operator for Differential Equations
- arxiv url: http://arxiv.org/abs/2510.05620v1
- Date: Tue, 07 Oct 2025 07:07:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.134029
- Title: Monte Carlo-Type Neural Operator for Differential Equations
- Title(参考訳): 微分方程式に対するモンテカルロ型ニューラル演算子
- Authors: Salah Eddine Choutri, Prajwal Chauhan, Othmane Mazhar, Saif Eddin Jabari,
- Abstract要約: モンテカルロ型アプローチを用いて偏微分方程式(PDE)の解演算子を学習するためのフレームワークを提案する。
スペクトル表現に依存し、翻訳不変のカーネルを仮定するニューラルネットワーク演算子(FNO)とは異なり、MCNOはそのような仮定をしない。
標準1次元PDEベンチマークの実験では、MCNOは効率的な計算コストで競合精度を達成している。
- 参考スコア(独自算出の注目度): 2.3614125526046505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Monte Carlo-type Neural Operator (MCNO) introduces a framework for learning solution operators of one-dimensional partial differential equations (PDEs) by directly learning the kernel function and approximating the associated integral operator using a Monte Carlo-type approach. Unlike Fourier Neural Operators (FNOs), which rely on spectral representations and assume translation-invariant kernels, MCNO makes no such assumptions. The kernel is represented as a learnable tensor over sampled input-output pairs, and sampling is performed once, uniformly at random from a discretized grid. This design enables generalization across multiple grid resolutions without relying on fixed global basis functions or repeated sampling during training, while an interpolation step maps between arbitrary input and output grids to further enhance flexibility. Experiments on standard 1D PDE benchmarks show that MCNO achieves competitive accuracy with efficient computational cost. We also provide a theoretical analysis proving that the Monte Carlo estimator yields a bounded bias and variance under mild regularity assumptions. This result holds in any spatial dimension, suggesting that MCNO may extend naturally beyond one-dimensional problems. More broadly, this work explores how Monte Carlo-type integration can be incorporated into neural operator frameworks for continuous-domain PDEs, providing a theoretically supported alternative to spectral methods (such as FNO) and to graph-based Monte Carlo approaches (such as the Graph Kernel Neural Operator, GNO).
- Abstract(参考訳): モンテカルロ型ニューラル演算子(MCNO)は、1次元偏微分方程式(PDE)の解演算子を直接学習し、関連する積分作用素をモンテカルロ型アプローチを用いて近似することにより、解演算子を学習する枠組みを導入する。
スペクトル表現に依存し、翻訳不変のカーネルを仮定するフーリエニューラル演算子(FNO)とは異なり、MCNOはそのような仮定をしない。
カーネルはサンプリングされた入出力ペアよりも学習可能なテンソルとして表現され、サンプリングは1回、離散化されたグリッドからランダムに行われる。
この設計は、任意の入力グリッドと出力グリッドの間で補間ステップがマッピングされ、柔軟性がさらに向上する一方で、固定されたグローバル基底関数やトレーニング中の繰り返しサンプリングに頼ることなく、複数のグリッド解像度をまたいだ一般化を可能にする。
標準1次元PDEベンチマークの実験では、MCNOは効率的な計算コストで競合精度を達成している。
また、モンテカルロ推定器が、穏やかな正則性仮定の下で有界バイアスと分散をもたらすことを証明した理論解析も提供する。
この結果は任意の空間次元を保ち、MCNOは1次元問題を超えて自然に拡張される可能性があることを示唆している。
より広範に、この研究は、モンテカルロ型統合を連続ドメインPDEのためのニューラルオペレータフレームワークに組み込む方法を探り、スペクトルメソッド(FNOなど)やグラフベースのモンテカルロアプローチ(グラフカーネルニューラルオペレータ、GNOなど)に理論的にサポートされた代替手段を提供する。
関連論文リスト
- Fourier Neural Operators for Non-Markovian Processes:Approximation Theorems and Experiments [2.84475965465923]
本稿では,ミラーパッド型ニューラル演算子(MFNO)を演算子ベースニューラルネットワークとして導入する。
MFNOはミラーパディングを組み込むことで標準的なフーリエニューラル演算子(FNO)を拡張し、非周期的な入力を処理することができる。
我々は、MFNOsが経路依存微分方程式の解と分数的ブラウン運動の任意の精度への変換を近似できることを厳密に証明する。
論文 参考訳(メタデータ) (2025-07-23T19:30:34Z) - Wasserstein proximal operators describe score-based generative models
and resolve memorization [12.321631823103894]
We first formulate SGMs with terms of Wasserstein proximal operator (WPO)
We show that WPO describe the inductive bias of diffusion and score-based model。
本稿では,SGMの性能を劇的に向上させる,スコア関数の解釈可能なカーネルベースモデルを提案する。
論文 参考訳(メタデータ) (2024-02-09T03:33:13Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Riemannian optimization of photonic quantum circuits in phase and Fock space [4.601534909359792]
本稿では,ガウスオブジェクトからなる汎用フォトニック量子回路の設計と最適化を行うフレームワークを提案する。
また、我々のフレームワークをガウス的でない対象に拡張可能とし、ガウス的オブジェクトの線型結合として記述することができる。
論文 参考訳(メタデータ) (2022-09-13T15:23:55Z) - Learning Nonparametric Volterra Kernels with Gaussian Processes [0.0]
本稿では、ガウス過程(GP)を用いて表現されたカーネルを持つボルテラ級数を用いて、非線形作用素の非パラメトリックベイズ学習法を提案する。
NVKMは、演算子への入力関数が観測されず、GP先行を持つとき、単出力と多重出力の両方の回帰のための強力な方法を構成し、非線形および非パラメトリック潜在力モデルと見なすことができる。
論文 参考訳(メタデータ) (2021-06-10T08:21:00Z) - Machine Learning and Variational Algorithms for Lattice Field Theory [1.198562319289569]
格子量子場論の研究において、格子理論を定義するパラメータは連続体物理学にアクセスする臨界性に向けて調整されなければならない。
経路積分の領域に適用される輪郭変形に基づいてモンテカルロ推定器を「変形」する手法を提案する。
我々は,フローベースMCMCが臨界減速を緩和し,オブザーシフォールドが原理的応用のばらつきを指数関数的に低減できることを実証した。
論文 参考訳(メタデータ) (2021-06-03T16:37:05Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。