論文の概要: Quantifying Out-of-Training Uncertainty of Neural-Network based Turbulence Closures
- arxiv url: http://arxiv.org/abs/2508.16891v1
- Date: Sat, 23 Aug 2025 03:43:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.240627
- Title: Quantifying Out-of-Training Uncertainty of Neural-Network based Turbulence Closures
- Title(参考訳): ニューラルネットワークによる乱流閉鎖のトレーニング外不確かさの定量化
- Authors: Cody Grogan, Som Dhulipala, Mauricio Tano, Izabela Gutowska, Som Dutta,
- Abstract要約: NNベースの乱流閉鎖は、従来の乱流閉鎖のための訓練済みサロゲートとして使用されるように開発されている。
これらのMLベースのクロージャの普及のボトルネックは、これらのモデルに対する相対的な不確実性(UQ)の欠如である。
本稿では,3つのNN法とガウス過程(GP)によるてんかんUQの質を比較した。
正確なGPは、Root Mean Squared Error(RMSE)が2.14 cdot 10-5$で、Dが4.59 cdot 10-4で最高の精度を発揮する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural-Network (NN) based turbulence closures have been developed for being used as pre-trained surrogates for traditional turbulence closures, with the aim to increase computational efficiency and prediction accuracy of CFD simulations. The bottleneck to the widespread adaptation of these ML-based closures is the relative lack of uncertainty quantification (UQ) for these models. Especially, quantifying uncertainties associated with out-of-training inputs, that is when the ML-based turbulence closures are queried on inputs outside their training data regime. In the current paper, a published algebraic turbulence closure1 has been utilized to compare the quality of epistemic UQ between three NN-based methods and Gaussian Process (GP). The three NN-based methods explored are Deep Ensembles (DE), Monte-Carlo Dropout (MCD), and Stochastic Variational Inference (SVI). In the in-training results, we find the exact GP performs the best in accuracy with a Root Mean Squared Error (RMSE) of $2.14 \cdot 10^{-5}$ followed by the DE with an RMSE of $4.59 \cdot 10^{-4}$. Next, the paper discusses the performance of the four methods for quantifying out-of-training uncertainties. For performance, the Exact GP yet again is the best in performance, but has similar performance to the DE in the out-of-training regions. In UQ accuracy for the out-of-training case, SVI and DE hold the best miscalibration error for one of the cases. However, the DE performs the best in Negative Log-Likelihood for both out-of-training cases. We observe that for the current problem, in terms of accuracy GP > DE > SV I > MCD. The DE results are relatively robust and provide intuitive UQ estimates, despite performing naive ensembling. In terms of computational cost, the GP is significantly higher than the NN-based methods with a $O(n^3)$ computational complexity for each training step
- Abstract(参考訳): ニューラルネットワーク(NN)に基づく乱流閉鎖法は,CFDシミュレーションの計算効率と予測精度を高めることを目的として,従来の乱流閉鎖法のための訓練済みサロゲートとして使用されている。
これらのMLベースのクロージャの普及のボトルネックは、これらのモデルに対する不確実量化(UQ)の相対的欠如である。
特に、トレーニング外入力に関連する不確実性の定量化、すなわち、MLベースの乱流閉鎖がトレーニングデータ体制外の入力に問い合わせられる場合である。
本論文では,3つのNN法とガウス過程(GP)の相似UQの品質を比較するために,代数的乱流閉包法を用いている。
NNベースの3つの手法はDeep Ensembles (DE)、Monte-Carlo Dropout (MCD)、Stochastic Variational Inference (SVI)である。
トレーニングの結果、GPはRoot Mean Squared Error(RMSE)が$2.14 \cdot 10^{-5}$、Dが$4.59 \cdot 10^{-4}$の精度で最高となることがわかった。
次に,トレーニング外不確実性を定量化する4つの手法の性能について述べる。
パフォーマンス面では、Exact GPは再び最高のパフォーマンスであるが、トレーニング外の領域ではDEと同じようなパフォーマンスである。
トレーニング外ケースのUQ精度では、SVIとDEは1つのケースで最高の誤校正誤差を保持する。
しかし、DECは両方のトレーニング外ケースに対して負のログライクリーフでベストを尽くす。
現在の問題については,精度GP > DE > SV I > MCD の観点から考察する。
DEの結果は比較的堅牢で、直感的なUQ推定を提供する。
計算コストの面では、GPはトレーニングステップ毎に$O(n^3)$の計算複雑性を持つNNベースの手法よりも大幅に高い。
関連論文リスト
- LLMs are Bayesian, in Expectation, not in Realization [0.0]
大きな言語モデルはパラメータを更新せずに新しいタスクに適応する。
最近の経験的発見は根本的な矛盾を示しており、変圧器はマルティンゲールの性質を体系的に侵害している。
この違反は、臨界応用における不確実性定量化の基礎となる理論的基礎に挑戦する。
論文 参考訳(メタデータ) (2025-07-15T22:20:11Z) - Bayesian optimized deep ensemble for uncertainty quantification of deep neural networks: a system safety case study on sodium fast reactor thermal stratification modeling [10.055838489452817]
ディープ・アンサンブルはディープ・ニューラルネットワーク(DNN)における不確実性定量化(UQ)のための効率的でスケーラブルな方法である
本稿では,ベイズ最適化(BO)とBODEと呼ばれるDDEを組み合わせることによって,予測精度とUQを両立させる手法を提案する。
計算流体力学(CFD)データに基づいて学習したDensely Connected Convolutional Neural Network (DCNN) のケーススタディにBODEを適用し, 高速炉熱成層モデルにおける渦粘度を予測する。
論文 参考訳(メタデータ) (2024-12-11T21:06:50Z) - Fixed-Mean Gaussian Processes for Post-hoc Bayesian Deep Learning [11.22428369342346]
普遍カーネルを用いた場合、後続平均を任意の連続関数に固定する、スパース変分ガウス過程(GP)の新たなファミリを導入する。
具体的には、このGPの平均値を事前学習したDNNの出力に固定し、GPの予測分散を効果的に適合させて予測の不確かさを推定する。
実験の結果,FMGPは最先端手法と比較して不確実性評価と計算効率を両立させることがわかった。
論文 参考訳(メタデータ) (2024-12-05T14:17:16Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Leveraging Locality and Robustness to Achieve Massively Scalable
Gaussian Process Regression [1.3518297878940662]
GPN(Nest-Nighbour)予測の強靭性特性と制限挙動を探索することによって,新しい視点を導入する。
データサイズnが大きくなるにつれて、推定パラメータとGPモデル仮定の精度は、GPnn予測精度とますます無関係になる。
この不正確さの源泉を補正することができ、高い計算コストで精度の高い不確実性対策と正確な予測を両立できることを示す。
論文 参考訳(メタデータ) (2023-06-26T14:32:46Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Uncertainty quantification using martingales for misspecified Gaussian
processes [52.22233158357913]
本稿では,ガウス過程(GP)の不確定な定量化を,不特定先行条件下で解決する。
マルティンゲール法を用いて未知関数に対する信頼シーケンス(CS)を構築する。
我々のCSは統計的に有効であり、実証的に標準GP法より優れています。
論文 参考訳(メタデータ) (2020-06-12T17:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。