論文の概要: P-TAME: Explain Any Image Classifier with Trained Perturbations
- arxiv url: http://arxiv.org/abs/2501.17813v1
- Date: Wed, 29 Jan 2025 18:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:34.968014
- Title: P-TAME: Explain Any Image Classifier with Trained Perturbations
- Title(参考訳): P-TAME: トレーニングされた摂動で画像分類を行う
- Authors: Mariano V. Ntrougkas, Vasileios Mezaris, Ioannis Patras,
- Abstract要約: P-TAME (Perturbation-based Trainable Attention Mechanism for Explanations) は、ディープニューラルネットワーク(DNN)を説明するためのモデルに依存しない手法である。
推論中に単一のフォワードパスで高分解能な説明を生成する。
本稿では,VGG-16,ResNet-50,ViT-B-16の3つの画像分類器について,P-TAMEを用いて検討する。
- 参考スコア(独自算出の注目度): 14.31574090533474
- License:
- Abstract: The adoption of Deep Neural Networks (DNNs) in critical fields where predictions need to be accompanied by justifications is hindered by their inherent black-box nature. In this paper, we introduce P-TAME (Perturbation-based Trainable Attention Mechanism for Explanations), a model-agnostic method for explaining DNN-based image classifiers. P-TAME employs an auxiliary image classifier to extract features from the input image, bypassing the need to tailor the explanation method to the internal architecture of the backbone classifier being explained. Unlike traditional perturbation-based methods, which have high computational requirements, P-TAME offers an efficient alternative by generating high-resolution explanations in a single forward pass during inference. We apply P-TAME to explain the decisions of VGG-16, ResNet-50, and ViT-B-16, three distinct and widely used image classifiers. Quantitative and qualitative results show that our method matches or outperforms previous explainability methods, including model-specific approaches. Code and trained models will be released upon acceptance.
- Abstract(参考訳): 正当化に伴う予測が必要な重要な分野におけるディープニューラルネットワーク(DNN)の採用は、その固有のブラックボックスの性質によって妨げられている。
本稿では,DNNに基づく画像分類手法であるP-TAME(Perturbation-based Trainable Attention Mechanism for Explanations)を提案する。
P-TAMEは、入力画像から特徴を抽出するために補助画像分類器を使用し、説明中のバックボーン分類器の内部構造への説明方法を調整する必要をなくす。
計算量の多い従来の摂動法とは異なり、P-TAMEは推論中に単一の前方通過で高分解能な説明を生成することで効率的な代替手段を提供する。
本稿では,VGG-16,ResNet-50,ViT-B-16の3つの画像分類器について,P-TAMEを用いて検討する。
定量的および定性的な結果から,本手法は,モデル固有のアプローチを含む従来の説明可能性手法に適合する,あるいは優れることを示す。
コードとトレーニングされたモデルは受け入れ次第リリースされる。
関連論文リスト
- Towards Counterfactual and Contrastive Explainability and Transparency of DCNN Image Classifiers [0.9831489366502298]
本稿では,DCNNモデルに対して,解釈可能な逆ファクトおよび対照的な説明を生成する手法を提案する。
提案手法は、入力画像を変更するのではなく、DCNNの内部動作を探索するモデル侵入型である。
この手法の興味深い応用の1つは誤分類解析であり、特定の入力画像から識別された概念を比較し、クラス固有の概念と比較し、モデルの判断の有効性を確立する。
論文 参考訳(メタデータ) (2025-01-12T14:54:02Z) - COMIX: Compositional Explanations using Prototypes [46.15031477955461]
本稿では,機械表現を人間の理解と整合させる手法を提案する。
提案手法はCOMIXと呼ばれ,学習概念に基づいて領域に分解することで画像の分類を行う。
提案手法は説明の完全性を提供し,その効率性は他の本質的に解釈可能なアーキテクチャと競合することを示す。
論文 参考訳(メタデータ) (2025-01-10T15:40:31Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。