論文の概要: Causal Explanations of Image Misclassifications
- arxiv url: http://arxiv.org/abs/2006.15739v1
- Date: Sun, 28 Jun 2020 22:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:14:56.771832
- Title: Causal Explanations of Image Misclassifications
- Title(参考訳): 画像誤分類の因果説明
- Authors: Yan Min, Miles Bennett
- Abstract要約: この研究は、VGG16、ResNet50、GoogLeNet、DenseNet161、MobileNet V2、Inception V3を含む6つのモダンCNNアーキテクチャ上でCIFAR-10を訓練する。
2つの原因が同定され、定性的に区別される:形態的類似性と非重要情報干渉である。
非必要情報干渉による誤分類を低減するため,サリエンシマップの上位5%の画素に固定されたボンディングボックス内の画素を消去した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The causal explanation of image misclassifications is an understudied niche,
which can potentially provide valuable insights in model interpretability and
increase prediction accuracy. This study trains CIFAR-10 on six modern CNN
architectures, including VGG16, ResNet50, GoogLeNet, DenseNet161, MobileNet V2,
and Inception V3, and explores the misclassification patterns using conditional
confusion matrices and misclassification networks. Two causes are identified
and qualitatively distinguished: morphological similarity and non-essential
information interference. The former cause is not model dependent, whereas the
latter is inconsistent across all six models.
To reduce the misclassifications caused by non-essential information
interference, this study erases the pixels within the bonding boxes anchored at
the top 5% pixels of the saliency map. This method first verifies the cause;
then by directly modifying the cause it reduces the misclassification. Future
studies will focus on quantitatively differentiating the two causes of
misclassifications, generalizing the anchor-box based inference modification
method to reduce misclassification, exploring the interactions of the two
causes in misclassifications.
- Abstract(参考訳): 画像の分類ミスの因果的説明は、モデル解釈可能性の貴重な洞察を提供し、予測精度を高める可能性がある、未熟なニッチである。
本研究では, vgg16, resnet50, googlenet, densenet161, mobilenet v2, inception v3を含む6つの現代cnnアーキテクチャ上でcifar-10を訓練し,条件付き混乱行列と誤分類ネットワークを用いた誤分類パターンを検討する。
2つの原因が識別され、定性的に区別される:形態的類似性と必須でない情報干渉。
前者はモデルに依存していないが、後者は6つのモデル全てに矛盾する。
非必須情報干渉による誤分類を減らすため,本研究は,サリエンシーマップの上位5%画素に固定されたボンディングボックス内の画素を消去する。
この方法はまず原因を検証し、それから原因を直接修正することで誤分類を減らす。
今後の研究では、誤分類の2つの原因を定量的に区別し、誤分類を減らすためにアンカーボックスに基づく推論修正法を一般化し、誤分類の2つの原因の相互作用を探求する。
関連論文リスト
- Explainable Image Recognition via Enhanced Slot-attention Based Classifier [28.259040737540797]
本稿では,修正スロットアテンション機構に基づく視覚的に説明可能な分類器であるESCOUTERを紹介する。
ESCOUTERは、高い分類精度を提供するだけでなく、意思決定の背後にある理由についてより透明な洞察を提供することによって、自分自身を区別している。
ESCOUTER専用の新しい損失関数は、モデルの振舞いを微調整し、肯定的な説明と否定的な説明の切り替えを可能にするように設計されている。
論文 参考訳(メタデータ) (2024-07-08T05:05:43Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Combating Uncertainty and Class Imbalance in Facial Expression
Recognition [4.306007841758853]
本稿では,Resnet と Attention に基づくフレームワークを提案する。
本手法は,表情データセットの精度において,最も基本的な手法を超越している。
論文 参考訳(メタデータ) (2022-12-15T12:09:02Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Closer Look at the Transferability of Adversarial Examples: How They
Fool Different Models Differently [8.735806163924602]
逆例(AE)は、別の(ターゲット)モデルの予測を誤解させる可能性がある。
我々は、同じ誤りが「非目標転送可能性」と相関していることを示す。
同一と異なる誤りの違いは、非破壊的特徴によって説明できることを示す。
論文 参考訳(メタデータ) (2021-12-29T00:18:59Z) - Contrastive Reasoning in Neural Networks [26.65337569468343]
因果クラス依存性を識別する機能に基づいて構築された推論は、フィードフォワード推論と呼ばれる。
本稿では,コントラスト推論の構造を形式化し,ニューラルネットワークのコントラスト概念を抽出する手法を提案する。
平均精度の3.47%、2.56%、5.48%の改善を報告することにより、歪み下での対比認識の価値を実証する。
論文 参考訳(メタデータ) (2021-03-23T05:54:36Z) - Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning [49.04790688256481]
一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T05:21:27Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。