論文の概要: Light-Weight Diffusion Multiplier and Uncertainty Quantification for Fourier Neural Operators
- arxiv url: http://arxiv.org/abs/2508.00643v1
- Date: Fri, 01 Aug 2025 13:57:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.904835
- Title: Light-Weight Diffusion Multiplier and Uncertainty Quantification for Fourier Neural Operators
- Title(参考訳): フーリエニューラル演算子の軽量拡散乗算器と不確かさ量子化
- Authors: Albert Matveev, Sanmitra Ghosh, Aamal Hussain, James-Michael Leahy, Michalis Michaelides,
- Abstract要約: 本研究では拡散型ニューラル演算子パラメトリゼーションであるDINOZAURを紹介する。
提案手法は,複数のPDEベンチマークにおいて,競合や優れた性能を実現する。
- 参考スコア(独自算出の注目度): 1.9689888982532262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Operator learning is a powerful paradigm for solving partial differential equations, with Fourier Neural Operators serving as a widely adopted foundation. However, FNOs face significant scalability challenges due to overparameterization and offer no native uncertainty quantification -- a key requirement for reliable scientific and engineering applications. Instead, neural operators rely on post hoc UQ methods that ignore geometric inductive biases. In this work, we introduce DINOZAUR: a diffusion-based neural operator parametrization with uncertainty quantification. Inspired by the structure of the heat kernel, DINOZAUR replaces the dense tensor multiplier in FNOs with a dimensionality-independent diffusion multiplier that has a single learnable time parameter per channel, drastically reducing parameter count and memory footprint without compromising predictive performance. By defining priors over those time parameters, we cast DINOZAUR as a Bayesian neural operator to yield spatially correlated outputs and calibrated uncertainty estimates. Our method achieves competitive or superior performance across several PDE benchmarks while providing efficient uncertainty quantification.
- Abstract(参考訳): 作用素学習は偏微分方程式を解くための強力なパラダイムであり、フーリエニューラル作用素は広く採用されている基礎となっている。
しかし、FNOは過度なパラメータ化と、信頼性の高い科学的・工学的応用のための重要な要件であるネイティブな不確実性定量化を提供することによって、大きなスケーラビリティの課題に直面している。
代わりに、ニューラルネットワークは幾何学的帰納バイアスを無視するポストホックなUQ法に依存している。
本研究では拡散型ニューラル演算子パラメトリゼーションであるDINOZAURを紹介する。
熱核の構造にインスパイアされたDINOZAURは、FNOの高密度テンソル乗算器を、チャネル毎に単一の学習可能な時間パラメータを持つ次元非依存拡散乗算器に置き換え、予測性能を損なうことなくパラメータ数とメモリフットプリントを大幅に削減する。
これらの時間的パラメータの事前を定義することにより、DINOZAURをベイズニューラル演算子として、空間的に相関した出力とキャリブレーションされた不確実性推定を導出する。
提案手法は,複数のPDEベンチマークの競合や優れた性能を実現するとともに,効率的な不確実性定量化を実現する。
関連論文リスト
- Sensitivity-Constrained Fourier Neural Operators for Forward and Inverse Problems in Parametric Differential Equations [6.900101619562999]
du/dt = f(u, x, t, p) という形のパラメトリック微分方程式は、科学や工学において基本的なものである。
フーリエニューラル演算子(FNO)のようなディープラーニングフレームワークは、解を効率的に近似することができるが、逆問題、感度推定(du/dp)、概念ドリフトに苦労する。
我々は、感度制約のあるフーリエニューラル演算子(SC-FNO)と呼ばれる感度に基づく正則化戦略を導入することで、これらの制限に対処する。
SC-FNOは解経路の予測において高い精度を達成し、物理インフォームド正規化により標準FNOとFNOを一貫して上回る。
論文 参考訳(メタデータ) (2025-05-13T16:54:10Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Distribution free uncertainty quantification in neuroscience-inspired deep operators [1.8416014644193066]
エネルギー効率の高いディープラーニングアルゴリズムは、持続可能な未来と実現可能なエッジコンピューティングのセットアップに不可欠である。
本稿では,従来型およびスパイク型ニューラル演算子の不確実性を定量化するために,CRP-O(Conformalized Randomized Prior Operator)フレームワークを提案する。
共形化したRP-VSWNOは,バニラRP-VSWNO,Quantile WNO(Q-WNO),コンフォーマル化されたQuantile WNO(CQ-WNO)と比較して,UQ推定を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-12T15:37:02Z) - Towards Gaussian Process for operator learning: an uncertainty aware resolution independent operator learning algorithm for computational mechanics [8.528817025440746]
本稿では、パラメトリック微分方程式を解くための新しいガウス過程(GP)に基づくニューラル演算子を提案する。
ニューラル演算子を用いて学習した潜在空間でGPカーネルを定式化するニューラル演算子埋め込みカーネル'を提案する。
本研究は, 不確実性評価におけるロバスト性を維持しつつ, 複雑なPDEを解く上で, この枠組みの有効性を強調した。
論文 参考訳(メタデータ) (2024-09-17T08:12:38Z) - Alpha-VI DeepONet: A prior-robust variational Bayesian approach for enhancing DeepONets with uncertainty quantification [0.0]
一般化変分推論(GVI)を組み込んだ新しいディープオペレータネットワーク(DeepONet)を提案する。
分岐ネットワークとトランクネットワークのビルディングブロックとしてベイズニューラルネットワークを組み込むことで,不確実な定量化が可能なDeepONetを実現する。
変動目的関数の修正は平均二乗誤差を最小化する点で優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-01T16:22:03Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Single Model Uncertainty Estimation via Stochastic Data Centering [39.71621297447397]
私たちは、ディープニューラルネットワークの不確実性を見積もることに興味があります。
我々は、一定のバイアスによってシフトしたデータセットに基づいてトレーニングされた、同じ重み付きニューラルネットワークのアンサンブルが、わずかに一貫性のないトレーニングモデルを引き起こすという驚くべき新しい発見を提示する。
我々は、$Delta-$UQの不確実性推定が、様々なベンチマークにおける現在の多くの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-14T23:54:54Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。