論文の概要: Getting a CLUE: A Method for Explaining Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2006.06848v2
- Date: Thu, 18 Mar 2021 11:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:48:12.128566
- Title: Getting a CLUE: A Method for Explaining Uncertainty Estimates
- Title(参考訳): 手がかりを得る:不確実性推定を説明する方法
- Authors: Javier Antor\'an, Umang Bhatt, Tameem Adel, Adrian Weller, Jos\'e
Miguel Hern\'andez-Lobato
- Abstract要約: 微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
- 参考スコア(独自算出の注目度): 30.367995696223726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both uncertainty estimation and interpretability are important factors for
trustworthy machine learning systems. However, there is little work at the
intersection of these two areas. We address this gap by proposing a novel
method for interpreting uncertainty estimates from differentiable probabilistic
models, like Bayesian Neural Networks (BNNs). Our method, Counterfactual Latent
Uncertainty Explanations (CLUE), indicates how to change an input, while
keeping it on the data manifold, such that a BNN becomes more confident about
the input's prediction. We validate CLUE through 1) a novel framework for
evaluating counterfactual explanations of uncertainty, 2) a series of ablation
experiments, and 3) a user study. Our experiments show that CLUE outperforms
baselines and enables practitioners to better understand which input patterns
are responsible for predictive uncertainty.
- Abstract(参考訳): 不確実性の推定と解釈は、信頼できる機械学習システムにとって重要な要素である。
しかし、この2つの領域の交点にはほとんど作業がない。
本稿では,ベイズニューラルネットワーク (BNN) のような微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,BNNが入力の予測に自信を持つようになるように,データ多様体上に保持しながら入力を変更する方法を示す。
CLUEを通した検証
1)不確実性の事実的説明を評価するための新しい枠組み
2)一連のアブレーション実験、及び
3) 利用者の学習。
実験の結果,CLUEはベースラインよりも優れており,どの入力パターンが予測の不確実性の原因であるかをよりよく理解することができることがわかった。
関連論文リスト
- Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Ensemble Neural Networks for Remaining Useful Life (RUL) Prediction [0.39287497907611874]
メンテナンス計画の中核となる部分は、健康と劣化に関する優れた予後を提供する監視システムである。
本稿では,確率論的RUL予測のためのアンサンブルニューラルネットワークを提案する。
この方法はNASAのターボファンジェットエンジンであるCMAPSSのデータセットで試験される。
論文 参考訳(メタデータ) (2023-09-21T19:38:44Z) - Uncertainty Propagation in Node Classification [9.03984964980373]
本稿では,ノード分類作業におけるグラフニューラルネットワーク(GNN)の不確実性の測定に焦点をあてる。
ベイジアンモデリングフレームワークにGNNを組み込んだベイジアン不確実性伝播(BUP)法を提案する。
本稿では,GNNが学習過程における予測的不確実性を明確に統合できるようにするノード分類における不確実性指向の損失について述べる。
論文 参考訳(メタデータ) (2023-04-03T12:18:23Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。