論文の概要: Gradient-based Uncertainty Attribution for Explainable Bayesian Deep
Learning
- arxiv url: http://arxiv.org/abs/2304.04824v1
- Date: Mon, 10 Apr 2023 19:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 17:05:01.537829
- Title: Gradient-based Uncertainty Attribution for Explainable Bayesian Deep
Learning
- Title(参考訳): 説明可能なベイズ深層学習のための勾配に基づく不確かさ属性
- Authors: Hanjing Wang, Dhiraj Joshi, Shiqiang Wang, Qiang Ji
- Abstract要約: ディープラーニングモデルによる予測は、データ摂動、敵攻撃、アウト・オブ・ディストリビューション・インプットの傾向が強い。
本稿では,正確な不確実性定量化を行うための説明可能かつ実用的なベイズ深層学習法を提案する。
- 参考スコア(独自算出の注目度): 38.34033824352067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictions made by deep learning models are prone to data perturbations,
adversarial attacks, and out-of-distribution inputs. To build a trusted AI
system, it is therefore critical to accurately quantify the prediction
uncertainties. While current efforts focus on improving uncertainty
quantification accuracy and efficiency, there is a need to identify uncertainty
sources and take actions to mitigate their effects on predictions. Therefore,
we propose to develop explainable and actionable Bayesian deep learning methods
to not only perform accurate uncertainty quantification but also explain the
uncertainties, identify their sources, and propose strategies to mitigate the
uncertainty impacts. Specifically, we introduce a gradient-based uncertainty
attribution method to identify the most problematic regions of the input that
contribute to the prediction uncertainty. Compared to existing methods, the
proposed UA-Backprop has competitive accuracy, relaxed assumptions, and high
efficiency. Moreover, we propose an uncertainty mitigation strategy that
leverages the attribution results as attention to further improve the model
performance. Both qualitative and quantitative evaluations are conducted to
demonstrate the effectiveness of our proposed methods.
- Abstract(参考訳): ディープラーニングモデルによる予測は、データ摂動、敵攻撃、アウト・オブ・ディストリビューション・インプットの傾向が強い。
信頼されたAIシステムを構築するためには、予測の不確実性を正確に定量化することが重要である。
現在の取り組みは不確実性定量化の精度と効率の向上に重点を置いているが、不確実性源を特定し、その予測への影響を緩和するための行動を取る必要がある。
そこで本研究では,正確な不確実性定量化を行うだけでなく,不確実性を説明し,その原因を特定し,不確実性を軽減するための戦略を提案する。
具体的には,予測の不確実性に寄与する入力の最も問題領域を特定するために,勾配に基づく不確実性帰属法を提案する。
既存の手法と比較して、提案したUA-Backpropは競合精度、緩和された仮定、高効率である。
さらに,モデル性能をさらに向上させるために,帰属結果を活用した不確実性緩和戦略を提案する。
本手法の有効性を示すため,定性評価と定量的評価を行った。
関連論文リスト
- On Information-Theoretic Measures of Predictive Uncertainty [5.8034373350518775]
その重要性にも拘わらず、予測の不確実性の正しい測定に関するコンセンサスはいまだに解明されていない。
提案手法は, 予測の不確かさを, (I) 予測モデル (II) 真の予測分布の近似の2つの要因により分類する。
本研究では, 誤分類検出, 選択的予測, アウト・オブ・ディストリビューション検出など, 典型的な不確実性推定設定において, これらの指標を実証的に評価する。
論文 参考訳(メタデータ) (2024-10-14T17:52:18Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - On Attacking Out-Domain Uncertainty Estimation in Deep Neural Networks [11.929914721626849]
我々は,現在最先端の不確実性推定アルゴリズムが,我々の提案した敵攻撃の下で破滅的に失敗する可能性を示唆した。
特に、領域外不確実性推定を攻撃することを目的としている。
論文 参考訳(メタデータ) (2022-10-03T23:33:38Z) - Adversarial Attack for Uncertainty Estimation: Identifying Critical
Regions in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける決定境界付近のデータポイントをキャプチャする手法を提案する。
不確実性推定は、モデルのパラメータに摂動を与える以前の研究とは異なり、入力摂動から導かれる。
提案手法は,他の手法よりも優れた性能を示し,機械学習におけるモデル不確実性を捉えるリスクが低いことを示した。
論文 参考訳(メタデータ) (2021-07-15T21:30:26Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Aleatoric Uncertainty Estimation Using a Separate Formulation with
Virtual Residuals [51.71066839337174]
既存の手法では、ターゲット推定における誤差を定量化できるが、過小評価する傾向がある。
本稿では,信号とその不確かさを推定するための新たな分離可能な定式化を提案し,オーバーフィッティングの影響を回避した。
提案手法は信号および不確実性推定のための最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T12:11:27Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。