論文の概要: Learning Solution Operators for Partial Differential Equations via Monte Carlo-Type Approximation
- arxiv url: http://arxiv.org/abs/2511.18930v1
- Date: Mon, 24 Nov 2025 09:35:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.138425
- Title: Learning Solution Operators for Partial Differential Equations via Monte Carlo-Type Approximation
- Title(参考訳): モンテカルロ型近似による部分微分方程式の学習解演算子
- Authors: Salah Eddine Choutri, Prajwal Chauhan, Othmane Mazhar, Saif Eddin Jabari,
- Abstract要約: モンテカルロ型ニューラル演算子(MCNO)は、パラメトリックPDEのためのソリューション演算子を学習するための軽量なアーキテクチャを導入している。
フーリエニューラル演算子とは異なり、MCNOはスペクトルや翻訳不変性の仮定をしない。
標準1次元PDEベンチマークの実験では、MCNOは計算コストの低い競争精度を達成している。
- 参考スコア(独自算出の注目度): 2.3614125526046505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Monte Carlo-type Neural Operator (MCNO) introduces a lightweight architecture for learning solution operators for parametric PDEs by directly approximating the kernel integral using a Monte Carlo approach. Unlike Fourier Neural Operators, MCNO makes no spectral or translation-invariance assumptions. The kernel is represented as a learnable tensor over a fixed set of randomly sampled points. This design enables generalization across multiple grid resolutions without relying on fixed global basis functions or repeated sampling during training. Experiments on standard 1D PDE benchmarks show that MCNO achieves competitive accuracy with low computational cost, providing a simple and practical alternative to spectral and graph-based neural operators.
- Abstract(参考訳): モンテカルロ型ニューラル演算子(MCNO)は、モンテカルロアプローチを用いて直接カーネル積分を近似することによりパラメトリックPDEのためのソリューション演算子を学習するための軽量アーキテクチャを導入する。
フーリエニューラル演算子とは異なり、MCNOはスペクトルや翻訳不変性の仮定をしない。
カーネルはランダムにサンプリングされた点の固定された集合上の学習可能なテンソルとして表現される。
この設計により、固定されたグローバル基底関数やトレーニング中の繰り返しサンプリングに頼ることなく、複数のグリッド解像度をまたいだ一般化が可能となる。
標準1D PDEベンチマークの実験により、MCNOは低計算コストで競合精度を達成し、スペクトルおよびグラフベースのニューラル演算子に対して単純で実用的な代替手段を提供することが示された。
関連論文リスト
- Monte Carlo-Type Neural Operator for Differential Equations [2.3614125526046505]
モンテカルロ型アプローチを用いて偏微分方程式(PDE)の解演算子を学習するためのフレームワークを提案する。
スペクトル表現に依存し、翻訳不変のカーネルを仮定するニューラルネットワーク演算子(FNO)とは異なり、MCNOはそのような仮定をしない。
標準1次元PDEベンチマークの実験では、MCNOは効率的な計算コストで競合精度を達成している。
論文 参考訳(メタデータ) (2025-10-07T07:07:04Z) - FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation [10.910310257111414]
本稿では,フーリエスペクトル法と深層学習を統合し,フーリエ空間の衝突作用素を効率的に近似するハイブリッドフレームワークを提案する。
FourierSpecNetは、解像度不変の学習を実現し、ゼロショットのスーパー解像度をサポートし、再トレーニングすることなく、見えない解像度での正確な予測を可能にする。
我々は,マクスウェル分子モデルやハードスフィア分子モデル,非弾性衝突シナリオなど,いくつかのベンチマークケースで本手法を評価した。
論文 参考訳(メタデータ) (2025-04-29T04:07:03Z) - Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Machine Learning and Variational Algorithms for Lattice Field Theory [1.198562319289569]
格子量子場論の研究において、格子理論を定義するパラメータは連続体物理学にアクセスする臨界性に向けて調整されなければならない。
経路積分の領域に適用される輪郭変形に基づいてモンテカルロ推定器を「変形」する手法を提案する。
我々は,フローベースMCMCが臨界減速を緩和し,オブザーシフォールドが原理的応用のばらつきを指数関数的に低減できることを実証した。
論文 参考訳(メタデータ) (2021-06-03T16:37:05Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Spectrum Dependent Learning Curves in Kernel Regression and Wide Neural
Networks [17.188280334580195]
トレーニングサンプル数の関数として,カーネル回帰の一般化性能に関する解析式を導出する。
我々の表現は、トレーニングとニューラルカーネル・タンジェント(NTK)によるカーネル回帰の等価性により、広いニューラルネットワークに適用される。
我々は、合成データとMNISTデータセットのシミュレーションを用いて、我々の理論を検証する。
論文 参考訳(メタデータ) (2020-02-07T00:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。