論文の概要: Identifying Drivers of Predictive Aleatoric Uncertainty
- arxiv url: http://arxiv.org/abs/2312.07252v2
- Date: Thu, 30 May 2024 14:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 23:32:48.350050
- Title: Identifying Drivers of Predictive Aleatoric Uncertainty
- Title(参考訳): 予測的アレタリック不確かさのドライバの同定
- Authors: Pascal Iversen, Simon Witzke, Katharina Baum, Bernhard Y. Renard,
- Abstract要約: 本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
- 参考スコア(独自算出の注目度): 2.5311562666866494
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability and uncertainty quantification are two pillars of trustable artificial intelligence. However, the reasoning behind uncertainty estimates is generally left unexplained. Identifying the drivers of uncertainty complements explanations of point predictions in recognizing model limitations and enhances trust in decisions and their communication. So far, explanations of uncertainties have been rarely studied. The few exceptions rely on Bayesian neural networks or technically intricate approaches, such as auxiliary generative models, thereby hindering their broad adoption. We present a simple approach to explain predictive aleatoric uncertainties. We estimate uncertainty as predictive variance by adapting a neural network with a Gaussian output distribution. Subsequently, we apply out-of-the-box explainers to the model's variance output. This approach can explain uncertainty influences more reliably than literature baselines, which we evaluate in a synthetic setting with a known data-generating process. We further adapt multiple metrics from conventional XAI research to uncertainty explanations. We quantify our findings with a nuanced benchmark analysis that includes real-world datasets. Finally, we apply our approach to an age regression model and discover reasonable sources of uncertainty. Overall, we explain uncertainty estimates with little modifications to the model architecture and demonstrate that our approach competes effectively with more intricate methods.
- Abstract(参考訳): 説明可能性と不確実性の定量化は、信頼できる人工知能の2つの柱である。
しかし、不確実性推定の背後にある理由については、概して説明がつかない。
不確実性の要因を特定することは、モデル制限を認識する際のポイント予測の説明を補完し、決定とそのコミュニケーションに対する信頼を高める。
これまでのところ、不確実性の説明はめったに研究されていない。
少数の例外はベイズニューラルネットワークや補助生成モデルのような技術的に複雑なアプローチに依存しており、それによって広く採用されるのを妨げている。
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
その後、モデルの分散出力にアウト・オブ・ボックスの説明器を適用する。
この手法は文献ベースラインよりも不確実性の影響を確実に説明することができ、既知のデータ生成プロセスによる合成環境で評価する。
我々は、従来のXAI研究から不確実性の説明まで、複数のメトリクスを適応させる。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
最後に、年齢回帰モデルにアプローチを適用し、妥当な不確実性の原因を発見する。
全体として、モデルアーキテクチャにほとんど変更を加えることなく不確実性推定を説明し、我々のアプローチがより複雑な手法と効果的に競合することを実証する。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Adversarial Attack for Uncertainty Estimation: Identifying Critical
Regions in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける決定境界付近のデータポイントをキャプチャする手法を提案する。
不確実性推定は、モデルのパラメータに摂動を与える以前の研究とは異なり、入力摂動から導かれる。
提案手法は,他の手法よりも優れた性能を示し,機械学習におけるモデル不確実性を捉えるリスクが低いことを示した。
論文 参考訳(メタデータ) (2021-07-15T21:30:26Z) - Aleatoric uncertainty for Errors-in-Variables models in deep regression [0.48733623015338234]
Errors-in-Variablesの概念がベイズ的深部回帰においてどのように利用できるかを示す。
様々なシミュレートされた実例に沿ったアプローチについて論じる。
論文 参考訳(メタデータ) (2021-05-19T12:37:02Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。