論文の概要: Generalizing Adversarial Explanations with Grad-CAM
- arxiv url: http://arxiv.org/abs/2204.05427v1
- Date: Mon, 11 Apr 2022 22:09:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 04:44:13.721577
- Title: Generalizing Adversarial Explanations with Grad-CAM
- Title(参考訳): Grad-CAMによる敵対的説明の一般化
- Authors: Tanmay Chakraborty, Utkarsh Trehan, Khawla Mallat, and Jean-Luc
Dugelay
- Abstract要約: 本稿では,Grad-CAMを例ベースの説明からグローバルモデル動作を説明する方法まで拡張する手法を提案する。
実験では,VGG16,ResNet50,ResNet101などの深層モデルと,InceptionNetv3やXceptionNetのような広層モデルに対する敵攻撃について検討した。
提案手法は、画像解析のためのブラックボックスCNNモデルの振る舞いを解析し、敵攻撃を理解するために利用できる。
- 参考スコア(独自算出の注目度): 7.165984630575092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-weighted Class Activation Mapping (Grad- CAM), is an example-based
explanation method that provides a gradient activation heat map as an
explanation for Convolution Neural Network (CNN) models. The drawback of this
method is that it cannot be used to generalize CNN behaviour. In this paper, we
present a novel method that extends Grad-CAM from example-based explanations to
a method for explaining global model behaviour. This is achieved by introducing
two new metrics, (i) Mean Observed Dissimilarity (MOD) and (ii) Variation in
Dissimilarity (VID), for model generalization. These metrics are computed by
comparing a Normalized Inverted Structural Similarity Index (NISSIM) metric of
the Grad-CAM generated heatmap for samples from the original test set and
samples from the adversarial test set. For our experiment, we study adversarial
attacks on deep models such as VGG16, ResNet50, and ResNet101, and wide models
such as InceptionNetv3 and XceptionNet using Fast Gradient Sign Method (FGSM).
We then compute the metrics MOD and VID for the automatic face recognition
(AFR) use case with the VGGFace2 dataset. We observe a consistent shift in the
region highlighted in the Grad-CAM heatmap, reflecting its participation to the
decision making, across all models under adversarial attacks. The proposed
method can be used to understand adversarial attacks and explain the behaviour
of black box CNN models for image analysis.
- Abstract(参考訳): Grad-CAM(Gradient-weighted Class Activation Mapping)は、畳み込みニューラルネットワーク(CNN)モデルの説明として勾配活性化熱マップを提供する例に基づく説明法である。
この手法の欠点は、CNNの振る舞いを一般化できないことである。
本稿では,Grad-CAMを例ベースの説明からグローバルモデル動作を説明する方法まで拡張する手法を提案する。
これは2つの新しいメトリクスを導入することで達成される。
一 観測された異種性(MOD)及び
(II)モデル一般化のための相似性の変化(VID)。
これらのメトリクスは、Grad-CAM生成熱マップの正規化逆構造類似度指数(NISSIM)メトリックと、元のテストセットと逆テストセットのサンプルを比較して計算される。
本研究では,VGG16,ResNet50,ResNet101などの深層モデルと,FGSM(Fast Gradient Sign Method)を用いたInceptionNetv3,XceptionNetのような広層モデルに対する敵攻撃について検討した。
次に、VGGFace2データセットを用いて、自動顔認証(AFR)ユースケースのメトリクスMODとVIDを算出する。
我々は,grad-camのヒートマップで強調された領域の一貫した変化を観察し,その意思決定への関与を反映した。
提案手法は, 画像解析のためのブラックボックスcnnモデルの動作を解析し, 敵対的攻撃の理解に有用である。
関連論文リスト
- CAM-Based Methods Can See through Walls [6.356330972370584]
CAMに基づくほとんどの解釈可能性法は、重要なスコアを、モデルが見ることができない画像の一部に誤って属性付けることができることを示す。
我々は、画像の下部を使わないよう制約されたVGGライクなモデルを訓練し、画像の見えない部分の正のスコアを観察する。
この挙動は、2つの新しいデータセットで定量的に評価される。
論文 参考訳(メタデータ) (2024-04-02T13:57:30Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring [26.434705114982584]
Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
Grad-CAMのグラデーションベース項のパス積分を計算することで、この問題に取り組むソリューションを紹介します。
CNNの予測のために抽出された表現の重要性を計測する手法で達成した改善を徹底した分析を行います。
論文 参考訳(メタデータ) (2021-02-15T19:21:46Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。