論文の概要: Generating Interpretable Counterfactual Explanations By Implicit
Minimisation of Epistemic and Aleatoric Uncertainties
- arxiv url: http://arxiv.org/abs/2103.08951v1
- Date: Tue, 16 Mar 2021 10:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:19:43.178009
- Title: Generating Interpretable Counterfactual Explanations By Implicit
Minimisation of Epistemic and Aleatoric Uncertainties
- Title(参考訳): てんかんおよび失読不確かさの最小化による解釈可能な非現実的説明の生成
- Authors: Lisa Schut, Oscar Key, Rory McGrath, Luca Costabello, Bogdan
Sacaleanu, Medb Corcoran and Yarin Gal
- Abstract要約: 補助モデルなしでホワイトボックス設定で解釈可能なCEを生成するための簡易かつ高速な手法を提案する。
実験の結果,提案アルゴリズムは既存の手法よりも,より解釈可能なCEを生成することがわかった。
- 参考スコア(独自算出の注目度): 24.410724285492485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations (CEs) are a practical tool for demonstrating why
machine learning classifiers make particular decisions. For CEs to be useful,
it is important that they are easy for users to interpret. Existing methods for
generating interpretable CEs rely on auxiliary generative models, which may not
be suitable for complex datasets, and incur engineering overhead. We introduce
a simple and fast method for generating interpretable CEs in a white-box
setting without an auxiliary model, by using the predictive uncertainty of the
classifier. Our experiments show that our proposed algorithm generates more
interpretable CEs, according to IM1 scores, than existing methods.
Additionally, our approach allows us to estimate the uncertainty of a CE, which
may be important in safety-critical applications, such as those in the medical
domain.
- Abstract(参考訳): 対実的説明(CE)は、機械学習の分類器が特別な決定を下す理由を示す実用的なツールである。
CEが有用であるためには,ユーザが容易に解釈できることが重要である。
解釈可能なcesを生成する既存の方法は、複雑なデータセットには適さない補助生成モデルに依存しており、エンジニアリングのオーバーヘッドを負う。
本稿では,分類器の予測不確実性を利用して,補助モデルのないホワイトボックス設定で解釈可能なCEを生成する簡易かつ高速な手法を提案する。
実験の結果,提案アルゴリズムは既存の手法よりも,より解釈可能なCEを生成することがわかった。
さらに,本手法は,医療領域など安全クリティカルな応用において重要と思われるceの不確かさを推定することを可能にする。
関連論文リスト
- Fast Calibrated Explanations: Efficient and Uncertainty-Aware Explanations for Machine Learning Models [41.82622187379551]
本稿では,機械学習モデルに対する高速かつ不確実な説明を生成する手法であるFast Calibrated Explanationsを紹介する。
ConformaSightの摂動手法をCalibrated Explanationsのコア要素に組み込むことで,大幅な高速化を実現する。
この新しい手法は細部を犠牲にするが、計算効率は優れており、高速でリアルタイムなアプリケーションに最適である。
論文 参考訳(メタデータ) (2024-10-28T15:29:35Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Interval Abstractions for Robust Counterfactual Explanations [15.954944873701503]
対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T18:24:34Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Counterfactual Explanation via Search in Gaussian Mixture Distributed
Latent Space [19.312306559210125]
対実説明(CE)は2つの問題に対処するアルゴリズム・リコースにおいて重要なツールである。
簡単に理解しやすい説明を提供することによって、AIシステムに対するユーザのインタラクションを導くことは、AIシステムの信頼できる採用と長期的な受け入れに不可欠である。
本稿では,まずオートエンコーダの潜伏空間をガウス分布の混合として形成することにより,事前学習されたバイナリ分類器のCEを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T10:21:26Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Finding Regions of Counterfactual Explanations via Robust Optimization [0.0]
反事実的説明 (CE) は、モデルの決定が変化する最小の摂動データポイントである。
既存のメソッドのほとんどは1つのCEしか提供できないが、ユーザにとっては達成できないかもしれない。
特徴がわずかに乱れた後も有効であるロバストCEを計算するための反復的手法を導出する。
論文 参考訳(メタデータ) (2023-01-26T14:06:26Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。