論文の概要: Interpretable Failure Detection with Human-Level Concepts
- arxiv url: http://arxiv.org/abs/2502.05275v1
- Date: Fri, 07 Feb 2025 19:19:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:32:21.079145
- Title: Interpretable Failure Detection with Human-Level Concepts
- Title(参考訳): ヒューマンレベル概念を用いた解釈可能な故障検出
- Authors: Kien X. Nguyen, Tang Li, Xi Peng,
- Abstract要約: この研究は、モデルが失敗したときを確実に検出し、理由を透過的に解釈する、という、2つの目的のために人間レベルの概念を活用する革新的な戦略を導入している。
入力画像に対する概念アクティベーションの順序付けに基づく簡易かつ高効率な手法を提案する。
- 参考スコア(独自算出の注目度): 9.086637005449672
- License:
- Abstract: Reliable failure detection holds paramount importance in safety-critical applications. Yet, neural networks are known to produce overconfident predictions for misclassified samples. As a result, it remains a problematic matter as existing confidence score functions rely on category-level signals, the logits, to detect failures. This research introduces an innovative strategy, leveraging human-level concepts for a dual purpose: to reliably detect when a model fails and to transparently interpret why. By integrating a nuanced array of signals for each category, our method enables a finer-grained assessment of the model's confidence. We present a simple yet highly effective approach based on the ordinal ranking of concept activation to the input image. Without bells and whistles, our method significantly reduce the false positive rate across diverse real-world image classification benchmarks, specifically by 3.7% on ImageNet and 9% on EuroSAT.
- Abstract(参考訳): 信頼性の高い障害検出は、安全クリティカルなアプリケーションにおいて最重要となる。
しかし、ニューラルネットワークは、誤って分類されたサンプルに対して自信過剰な予測を生成することが知られている。
その結果、既存の信頼スコア関数が障害を検出するためにカテゴリレベルの信号であるロジットに依存しているため、問題は残る。
この研究は、モデルが失敗したときを確実に検出し、理由を透過的に解釈する、という、2つの目的のために人間レベルの概念を活用する革新的な戦略を導入している。
そこで本手法では,各カテゴリ毎のニュアンス付き信号列を統合することにより,モデルの信頼性をよりきめ細かな評価が可能となる。
入力画像に対する概念アクティベーションの順序付けに基づく簡易かつ高効率な手法を提案する。
ベルとホイッスルがなければ、実世界の様々な画像分類ベンチマークにおける偽陽性率は、特にImageNetでは3.7%、EuroSATでは9%減少する。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Tailoring Adversarial Attacks on Deep Neural Networks for Targeted Class Manipulation Using DeepFool Algorithm [6.515472477685614]
敵対的攻撃に対するディープニューラルネットワーク(DNN)の感受性は、多くのアプリケーションにまたがる信頼性を損なう。
本稿では,DeepFoolの進化であるET DeepFoolアルゴリズムを紹介する。
我々の実証的研究は、画像の整合性を維持する上で、この洗練されたアプローチが優れていることを示すものである。
論文 参考訳(メタデータ) (2023-10-18T18:50:39Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Boosting Adversarial Robustness using Feature Level Stochastic Smoothing [46.86097477465267]
敵の防御は、ディープニューラルネットワークの堅牢性を大幅に向上させた。
本研究では,ネットワーク予測における導入性に関する一般的な手法を提案する。
また、信頼性の低い予測を拒否する意思決定の円滑化にも活用する。
論文 参考訳(メタデータ) (2023-06-10T15:11:24Z) - A Call to Reflect on Evaluation Practices for Failure Detection in Image
Classification [0.491574468325115]
本稿では,信頼度評価関数のベンチマーク化を初めて実現した大規模実証的研究について述べる。
簡便なソフトマックス応答ベースラインを全体の最高の実行方法として明らかにすることは、現在の評価の劇的な欠点を浮き彫りにする。
論文 参考訳(メタデータ) (2022-11-28T12:25:27Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Gradients as a Measure of Uncertainty in Neural Networks [16.80077149399317]
本稿では,学習モデルの不確かさの定量化にバックプロパゲート勾配を用いることを提案する。
本研究では,AUROC スコアの4.8% を非分布検出において,勾配法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T16:58:46Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。