論文の概要: Getting a CLUE: A Method for Explaining Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2006.06848v2
- Date: Thu, 18 Mar 2021 11:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:48:12.128566
- Title: Getting a CLUE: A Method for Explaining Uncertainty Estimates
- Title(参考訳): 手がかりを得る:不確実性推定を説明する方法
- Authors: Javier Antor\'an, Umang Bhatt, Tameem Adel, Adrian Weller, Jos\'e
Miguel Hern\'andez-Lobato
- Abstract要約: 微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
- 参考スコア(独自算出の注目度): 30.367995696223726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both uncertainty estimation and interpretability are important factors for
trustworthy machine learning systems. However, there is little work at the
intersection of these two areas. We address this gap by proposing a novel
method for interpreting uncertainty estimates from differentiable probabilistic
models, like Bayesian Neural Networks (BNNs). Our method, Counterfactual Latent
Uncertainty Explanations (CLUE), indicates how to change an input, while
keeping it on the data manifold, such that a BNN becomes more confident about
the input's prediction. We validate CLUE through 1) a novel framework for
evaluating counterfactual explanations of uncertainty, 2) a series of ablation
experiments, and 3) a user study. Our experiments show that CLUE outperforms
baselines and enables practitioners to better understand which input patterns
are responsible for predictive uncertainty.
- Abstract(参考訳): 不確実性の推定と解釈は、信頼できる機械学習システムにとって重要な要素である。
しかし、この2つの領域の交点にはほとんど作業がない。
本稿では,ベイズニューラルネットワーク (BNN) のような微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,BNNが入力の予測に自信を持つようになるように,データ多様体上に保持しながら入力を変更する方法を示す。
CLUEを通した検証
1)不確実性の事実的説明を評価するための新しい枠組み
2)一連のアブレーション実験、及び
3) 利用者の学習。
実験の結果,CLUEはベースラインよりも優れており,どの入力パターンが予測の不確実性の原因であるかをよりよく理解することができることがわかった。
関連論文リスト
- Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Ensemble Neural Networks for Remaining Useful Life (RUL) Prediction [0.39287497907611874]
メンテナンス計画の中核となる部分は、健康と劣化に関する優れた予後を提供する監視システムである。
本稿では,確率論的RUL予測のためのアンサンブルニューラルネットワークを提案する。
この方法はNASAのターボファンジェットエンジンであるCMAPSSのデータセットで試験される。
論文 参考訳(メタデータ) (2023-09-21T19:38:44Z) - Uncertainty Propagation in Node Classification [9.03984964980373]
本稿では,ノード分類作業におけるグラフニューラルネットワーク(GNN)の不確実性の測定に焦点をあてる。
ベイジアンモデリングフレームワークにGNNを組み込んだベイジアン不確実性伝播(BUP)法を提案する。
本稿では,GNNが学習過程における予測的不確実性を明確に統合できるようにするノード分類における不確実性指向の損失について述べる。
論文 参考訳(メタデータ) (2023-04-03T12:18:23Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Double-Uncertainty Weighted Method for Semi-supervised Learning [32.484750353853954]
教師-学生モデルに基づく半教師付きセグメンテーションのための二重不確かさ重み付き手法を提案する。
ベイジアンディープラーニングを用いて教師モデルを訓練し,セグメンテーションの不確実性と特徴の不確実性を両立させる。
本手法は,2つの公開医療データセットにおいて,最先端の不確実性に基づく半教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2020-10-19T08:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。