論文の概要: Meaningful uncertainties from deep neural network surrogates of
large-scale numerical simulations
- arxiv url: http://arxiv.org/abs/2010.13749v1
- Date: Mon, 26 Oct 2020 17:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:40:33.301663
- Title: Meaningful uncertainties from deep neural network surrogates of
large-scale numerical simulations
- Title(参考訳): 大規模数値シミュレーションのディープニューラルネットワークサロゲートによる有意義な不確かさ
- Authors: Gemma J. Anderson, Jim A. Gaffney, Brian K. Spears, Peer-Timo Bremer,
Rushil Anirudh and Jayaraman J. Thiagarajan
- Abstract要約: ディープニューラルネットワーク(DNN)は、高精度な代理モデルとして機能する。
このような比較を意味づけるためには、予測の不確実性推定が不可欠である。
- 参考スコア(独自算出の注目度): 34.03414786863526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale numerical simulations are used across many scientific disciplines
to facilitate experimental development and provide insights into underlying
physical processes, but they come with a significant computational cost. Deep
neural networks (DNNs) can serve as highly-accurate surrogate models, with the
capacity to handle diverse datatypes, offering tremendous speed-ups for
prediction and many other downstream tasks. An important use-case for these
surrogates is the comparison between simulations and experiments; prediction
uncertainty estimates are crucial for making such comparisons meaningful, yet
standard DNNs do not provide them. In this work we define the fundamental
requirements for a DNN to be useful for scientific applications, and
demonstrate a general variational inference approach to equip predictions of
scalar and image data from a DNN surrogate model trained on inertial
confinement fusion simulations with calibrated Bayesian uncertainties.
Critically, these uncertainties are interpretable, meaningful and preserve
physics-correlations in the predicted quantities.
- Abstract(参考訳): 大規模数値シミュレーションは、実験的な開発を促進し、基礎となる物理過程に関する洞察を与えるために、多くの科学分野にまたがって使用されているが、計算コストは相当である。
ディープニューラルネットワーク(DNN)は、さまざまなデータ型を扱う能力を備えた高精度な代理モデルとして機能し、予測やその他の下流タスクの大幅なスピードアップを提供する。
これらのサロゲートの重要なユースケースは、シミュレーションと実験の比較である。予測の不確実性推定は、そのような比較を意味付けるために重要であるが、標準的なDNNはそれらを提供しない。
本研究では,DNNが科学的応用に有用であるための基本的な要件を定義し,キャリブレーションされたベイズ不確実性を用いた慣性凝縮融合シミュレーションに基づいて訓練されたDNNサロゲートモデルからスカラーおよび画像データの平衡予測に対する一般的な変分推論アプローチを示す。
批判的に、これらの不確実性は予測された量の物理相関を解釈し、意味を持ち、保存する。
関連論文リスト
- An Investigation on Machine Learning Predictive Accuracy Improvement and Uncertainty Reduction using VAE-based Data Augmentation [2.517043342442487]
深層生成学習は、特定のMLモデルを使用して、既存のデータの基盤となる分布を学習し、実際のデータに似た合成サンプルを生成する。
本研究では,変分オートエンコーダ(VAE)を用いた深部生成モデルを用いて,データ拡張の有効性を評価することを目的とする。
本研究では,拡張データを用いてトレーニングしたディープニューラルネットワーク(DNN)モデルの予測において,データ拡張が精度の向上につながるかどうかを検討した。
論文 参考訳(メタデータ) (2024-10-24T18:15:48Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Uncertainty Quantification in Multivariable Regression for Material Property Prediction with Bayesian Neural Networks [37.69303106863453]
物理インフォームドBNNにおける不確実性定量化(UQ)のアプローチを提案する。
本稿では, 鋼のクリープ破断寿命を予測するためのケーススタディを提案する。
クリープ寿命予測の最も有望なフレームワークは、マルコフ・チェイン・モンテカルロによるネットワークパラメータの後方分布の近似に基づくBNNである。
論文 参考訳(メタデータ) (2023-11-04T19:40:16Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Single Model Uncertainty Estimation via Stochastic Data Centering [39.71621297447397]
私たちは、ディープニューラルネットワークの不確実性を見積もることに興味があります。
我々は、一定のバイアスによってシフトしたデータセットに基づいてトレーニングされた、同じ重み付きニューラルネットワークのアンサンブルが、わずかに一貫性のないトレーニングモデルを引き起こすという驚くべき新しい発見を提示する。
我々は、$Delta-$UQの不確実性推定が、様々なベンチマークにおける現在の多くの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-14T23:54:54Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Leveraging Stochastic Predictions of Bayesian Neural Networks for Fluid
Simulations [19.961746770975534]
流体シミュレーションにおけるベイズニューラルネットワーク(BNN)の非決定論的予測による不確実性推定と多モード性について検討する。
定常流体流予測の代理モデルとして用いる場合,BNNは精度の高い物理予測を行い,不確実性の推定を行う。
我々はNavier-Stokesシミュレーションの摂動時間列を実験し、BNNのマルチモーダル進化を捉える能力を評価する。
論文 参考訳(メタデータ) (2022-05-02T21:34:52Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Transfer learning suppresses simulation bias in predictive models built
from sparse, multi-modal data [15.587831925516957]
科学、工学、ビジネスにおける多くの問題は、ごくわずかな観察に基づく予測を必要とする。
堅牢な予測モデルを構築するには、特に設計空間が多次元である場合、これらのスパースデータをシミュレーションデータで拡張する必要がある。
ディープラーニングの最近の開発を組み合わせて、マルチモーダルデータからより堅牢な予測モデルを構築します。
論文 参考訳(メタデータ) (2021-04-19T23:28:32Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。