論文の概要: Augmentation by Counterfactual Explanation -- Fixing an Overconfident
Classifier
- arxiv url: http://arxiv.org/abs/2210.12196v1
- Date: Fri, 21 Oct 2022 18:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:48:15.378015
- Title: Augmentation by Counterfactual Explanation -- Fixing an Overconfident
Classifier
- Title(参考訳): 反事実的説明による拡張 -- 過信な分類器の修正
- Authors: Sumedha Singla and Nihal Murali and Forough Arabshahi and Sofia
Triantafyllou and Kayhan Batmanghelich
- Abstract要約: 極めて正確だが過信的なモデルは、ヘルスケアや自動運転といった重要なアプリケーションへのデプロイには不適である。
本稿では,過度に信頼された分類器の修正に反事実的説明を適用することを提案する。
- 参考スコア(独自算出の注目度): 11.233334009240947
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A highly accurate but overconfident model is ill-suited for deployment in
critical applications such as healthcare and autonomous driving. The
classification outcome should reflect a high uncertainty on ambiguous
in-distribution samples that lie close to the decision boundary. The model
should also refrain from making overconfident decisions on samples that lie far
outside its training distribution, far-out-of-distribution (far-OOD), or on
unseen samples from novel classes that lie near its training distribution
(near-OOD). This paper proposes an application of counterfactual explanations
in fixing an over-confident classifier. Specifically, we propose to fine-tune a
given pre-trained classifier using augmentations from a counterfactual
explainer (ACE) to fix its uncertainty characteristics while retaining its
predictive performance. We perform extensive experiments with detecting
far-OOD, near-OOD, and ambiguous samples. Our empirical results show that the
revised model have improved uncertainty measures, and its performance is
competitive to the state-of-the-art methods.
- Abstract(参考訳): 正確だが自信過剰なモデルは、医療や自動運転のような重要なアプリケーションへのデプロイに適している。
分類結果は、決定境界に近い不明瞭な分布内サンプルに対する高い不確実性を反映すべきである。
モデルはまた、トレーニング分布から遠く離れたサンプル、遠方分布(far-ood)、またはトレーニング分布(near-ood)に近い新しいクラスからの見えないサンプルについて、自信過剰な決定を行うことを控えるべきである。
本稿では,自信過剰な分類器の修正における反事実的説明の応用を提案する。
具体的には、その予測性能を維持しつつ、その不確かさ特性を修正するために、反現実的説明器(ACE)の強化を用いた事前学習型分類器の微調整を提案する。
遠近法, 近近法, あいまいな試料を検知し, 広範囲にわたる実験を行った。
実験の結果,修正されたモデルでは不確実性対策が改善しており,その性能は最先端の手法と競合していることがわかった。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Calibrated Selective Classification [34.08454890436067]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Uncertainty-Aware Reliable Text Classification [21.517852608625127]
ディープニューラルネットワークは、分類タスクの予測精度の成功に大きく貢献している。
ドメインシフトやアウト・オブ・ディストリビューション(out-of-distribution)の例が存在する現実の環境では、過度に信頼された予測を行う傾向があります。
補助外乱と擬似外乱サンプルを併用して, あるクラスの事前知識でモデルを訓練する, 安価なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-15T04:39:55Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Adversarial Robustness on In- and Out-Distribution Improves
Explainability [109.68938066821246]
RATIOは、Adversarial Training on In- and Out-distriionを通じて、堅牢性のためのトレーニング手順である。
RATIOはCIFAR10で最先端の$l$-adrialを実現し、よりクリーンな精度を維持している。
論文 参考訳(メタデータ) (2020-03-20T18:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。