論文の概要: Direct Learning of Calibration-Aware Uncertainty for Neural PDE Surrogates
- arxiv url: http://arxiv.org/abs/2602.11090v1
- Date: Wed, 11 Feb 2026 17:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.285383
- Title: Direct Learning of Calibration-Aware Uncertainty for Neural PDE Surrogates
- Title(参考訳): ニューラルPDEサロゲートの校正型不確かさの直接学習
- Authors: Carlos Stein Brito,
- Abstract要約: 相互規則化された不確実性は、保持された正規化分割を経由した経路を用いた訓練中の不確実性パラメータを学習する。
予測器はトレーニングスプリットに適合するように最適化され、低次元の不確実性制御は正規化スプリットに最適化され、列車テストミスマッチを低減する。
フーリエ・ニューラル・オペレーターのアプローチをインスタンス化し、観測された分数およびトレーニングセットのサイズに対して APEBench sweeps の評価を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural PDE surrogates are often deployed in data-limited or partially observed regimes where downstream decisions depend on calibrated uncertainty in addition to low prediction error. Existing approaches obtain uncertainty through ensemble replication, fixed stochastic noise such as dropout, or post hoc calibration. Cross-regularized uncertainty learns uncertainty parameters during training using gradients routed through a held-out regularization split. The predictor is optimized on the training split for fit, while low-dimensional uncertainty controls are optimized on the regularization split to reduce train-test mismatch, yielding regime-adaptive uncertainty without per-regime noise tuning. The framework can learn continuous noise levels at the output head, within hidden features, or within operator-specific components such as spectral modes. We instantiate the approach in Fourier Neural Operators and evaluate on APEBench sweeps over observed fraction and training-set size. Across these sweeps, the learned predictive distributions are better calibrated on held-out splits and the resulting uncertainty fields concentrate in high-error regions in one-step spatial diagnostics.
- Abstract(参考訳): ニューラルPDEサロゲートは、低い予測誤差に加えて、下流の決定が校正された不確実性に依存するような、データ制限または部分的に観察された状態に展開されることが多い。
既存のアプローチでは、アンサンブル複製、ドロップアウトのような固定された確率ノイズ、あるいはポストホック校正によって不確実性が得られる。
相互正規化不確実性は、保持された正規化分割を経由した勾配を用いたトレーニング中の不確実性パラメータを学習する。
予測器はトレーニング分割に適合するように最適化され、低次元の不確実性制御は正規化分割に最適化され、列車試験ミスマッチを低減し、レジーム毎のノイズチューニングなしに状態適応不確実性が得られる。
このフレームワークは出力ヘッドや隠れた機能内、あるいはスペクトルモードのような演算子固有のコンポーネント内で連続的なノイズレベルを学習することができる。
フーリエ・ニューラル・オペレーターのアプローチをインスタンス化し、観測された分数およびトレーニングセットのサイズに対して APEBench sweeps の評価を行う。
これらのスイープ全体にわたって、学習された予測分布は、ホールドアウト分割により校正され、結果として生じる不確実性フィールドは、一段階の空間診断において、ハイエラー領域に集中する。
関連論文リスト
- UAT-LITE: Inference-Time Uncertainty-Aware Attention for Pretrained Transformers [11.741258610945259]
UAT-LITEは、自己アテンションの不確実性を認識させる推論時フレームワークである。
これは、細調整されたBERTベースラインと比較して平均で予測エラーを約20%削減する。
分散シフトの下で選択的な予測とロバスト性を改善する。
論文 参考訳(メタデータ) (2026-02-03T00:51:26Z) - Calibrated Decomposition of Aleatoric and Epistemic Uncertainty in Deep Features for Inference-Time Adaptation [3.018583625592182]
ほとんどの推定器は、全ての不確実性モードを単一の信頼スコアに分解し、いつより多くの計算を割り当てるか、あるいは推論を調整するべきかについての信頼性の高い推論を防ぐ。
非確実性誘導推論時間選択(Uncertainty-Guided Inference-Time Selection)は,データ駆動型(データ駆動型)とモデル駆動型不確実性を,深い特徴空間で直接的に解消する軽量な推論時間フレームワークである。
論文 参考訳(メタデータ) (2025-11-15T23:47:30Z) - CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Efficient Post-Hoc Uncertainty Calibration via Variance-Based Smoothing [0.810304644344495]
従来のディープニューラルネットワークにおいて,事前情報の導入が不確実性推定を改善するか否かを検討する。
私たちの焦点は、入力のサブ部分から意味のある予測ができる機械学習タスクです。
論文 参考訳(メタデータ) (2025-03-19T16:47:15Z) - Error-quantified Conformal Inference for Time Series [55.11926160774831]
時系列予測の不確かさの定量化は、時系列データの時間的依存と分布シフトのために困難である。
量子化損失関数をスムースにすることで,iError-quantified Conformal Inference (ECI)を提案する。
ECIは有効な誤発見制御と、他のベースラインよりも厳密な予測セットを出力することができる。
論文 参考訳(メタデータ) (2025-02-02T15:02:36Z) - Gradient Normalization Provably Benefits Nonconvex SGD under Heavy-Tailed Noise [60.92029979853314]
重み付き雑音下でのグラディエントDescence(SGD)の収束を確実にする上での勾配正規化とクリッピングの役割について検討する。
我々の研究は、重尾雑音下でのSGDの勾配正規化の利点を示す最初の理論的証拠を提供する。
我々は、勾配正規化とクリッピングを取り入れた加速SGD変種を導入し、さらに重み付き雑音下での収束率を高めた。
論文 参考訳(メタデータ) (2024-10-21T22:40:42Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Distribution-free binary classification: prediction sets, confidence
intervals and calibration [106.50279469344937]
分布自由条件における二項分類のための不確実性定量化(キャリブレーション、信頼区間、予測セット)の3つの概念について検討する。
固定幅と一様質量の両双対の双対確率に対する信頼区間を導出する。
我々の「三脚」定理の結果として、双有理確率に対するこれらの信頼区間は分布自由キャリブレーションに繋がる。
論文 参考訳(メタデータ) (2020-06-18T14:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。