論文の概要: Generative Neural Operators through Diffusion Last Layer
- arxiv url: http://arxiv.org/abs/2602.04139v1
- Date: Wed, 04 Feb 2026 02:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.339358
- Title: Generative Neural Operators through Diffusion Last Layer
- Title(参考訳): 拡散最終層による生成型ニューラル演算子
- Authors: Sungwon Park, Anthony Zhou, Hongjoong Kim, Amir Barati Farimani,
- Abstract要約: 予測の不確実性をモデル化するために、任意の神経オペレーターのバックボーンにアタッチできる軽量な確率的ヘッドを導入する。
PDE溶液分布によってしばしば現れる相対的滑らかさと低次元構造に動機づけられた条件出力分布を関数空間で直接パラメータ化する。
PDE演算子学習ベンチマーク、予測の改善、不確実性認識。
- 参考スコア(独自算出の注目度): 13.076028397183897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators have emerged as a powerful paradigm for learning discretization-invariant function-to-function mappings in scientific computing. However, many practical systems are inherently stochastic, making principled uncertainty quantification essential for reliable deployment. To address this, we introduce a simple add-on, the diffusion last layer (DLL), a lightweight probabilistic head that can be attached to arbitrary neural operator backbones to model predictive uncertainty. Motivated by the relative smoothness and low-dimensional structure often exhibited by PDE solution distributions, DLL parameterizes the conditional output distribution directly in function space through a low-rank Karhunen-Loève expansion, enabling efficient and expressive uncertainty modeling. Across stochastic PDE operator learning benchmarks, DLL improves generalization and uncertainty-aware prediction. Moreover, even in deterministic long-horizon rollout settings, DLL enhances rollout stability and provides meaningful estimates of epistemic uncertainty for backbone neural operators.
- Abstract(参考訳): ニューラル演算子は、科学計算において離散化不変関数-関数-関数マッピングを学習するための強力なパラダイムとして登場した。
しかし、多くの実用システムは本質的に確率的であり、信頼性の高い配備に欠かせない不確実性定量化を原則としている。
これを解決するために,任意の神経オペレーターのバックボーンにアタッチして予測の不確実性をモデル化する軽量な確率的ヘッドである拡散最終層 (DLL) という簡単なアドオンを導入する。
PDE溶液分布によってしばしば現れる相対滑らかさと低次元構造に動機づけられたDLLは、低ランクのカーフン・ローブ展開を通じて関数空間における条件出力分布を直接パラメータ化し、効率的かつ表現力のある不確実性モデリングを可能にする。
確率論的PDE演算子学習ベンチマーク全体において、DLLは一般化と不確実性を考慮した予測を改善する。
さらに、決定論的長期ロールアウト設定においても、DLLはロールアウト安定性を高め、バックボーン神経オペレーターに対する認識の不確かさを有意義に見積もる。
関連論文リスト
- Light-Weight Diffusion Multiplier and Uncertainty Quantification for Fourier Neural Operators [1.315766151337659]
本研究では拡散型ニューラル演算子パラメトリゼーションであるDINOZAURを紹介する。
提案手法は,複数のPDEベンチマークにおいて,競合や優れた性能を実現する。
論文 参考訳(メタデータ) (2025-08-01T13:57:19Z) - LVM-GP: Uncertainty-Aware PDE Solver via coupling latent variable model and Gaussian process [9.576396359649921]
雑音データを用いたPDEの解法における不確実性定量化のための新しいフレームワーク LVM-GP を提案する。
アーキテクチャは信頼を意識したエンコーダと確率的デコーダで構成される。
論文 参考訳(メタデータ) (2025-07-30T09:00:39Z) - A Simple Approximate Bayesian Inference Neural Surrogate for Stochastic Petri Net Models [0.0]
後部分布フレームワークのニューラルネットワークに基づく近似を導入する。
我々のモデルは、Gilespie-simulated SPN realizations上で訓練された1D Convolutional Residual Networkを使用する。
20%の欠落事象を持つ合成SPNでは, RMSE = 0.108で速度関数係数を回復し, 従来のベイズ手法よりもかなり高速に動作する。
論文 参考訳(メタデータ) (2025-07-14T18:31:19Z) - Efficient Parametric SVD of Koopman Operator for Stochastic Dynamical Systems [51.54065545849027]
クープマン作用素は非線形力学系を解析するための原理的なフレームワークを提供する。
VAMPnet と DPNet はクープマン作用素の主特異部分空間を学ぶために提案されている。
我々は、クープマン作用素のトップ$kの特異関数を学ぶためのスケーラブルで概念的にシンプルな方法を提案する。
論文 参考訳(メタデータ) (2025-07-09T18:55:48Z) - Elucidated Rolling Diffusion Models for Probabilistic Weather Forecasting [52.6508222408558]
Eucidated Rolling Diffusion Models (ERDM)を紹介する。
ERDMはEucidated Diffusion Models (EDM) の原理的, 性能的設計とローリング予測構造を統一する最初のフレームワークである
2D Navier-StokesシミュレーションとERA5グローバル気象予報の1.5円解像度では、ERDMはキー拡散ベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-06-24T21:44:31Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Probabilistic neural operators for functional uncertainty quantification [14.08907045605149]
本稿では,ニューラル演算子の出力関数空間上の確率分布を学習するフレームワークである確率論的ニューラル演算子(PNO)を紹介する。
PNOは、厳密な適切なスコアリングルールに基づく生成モデリングにより、ニューラル演算子を拡張し、不確実性情報をトレーニングプロセスに直接統合する。
論文 参考訳(メタデータ) (2025-02-18T14:42:11Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。