論文の概要: Investigating sanity checks for saliency maps with image and text
classification
- arxiv url: http://arxiv.org/abs/2106.07475v1
- Date: Tue, 8 Jun 2021 23:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 17:44:07.127050
- Title: Investigating sanity checks for saliency maps with image and text
classification
- Title(参考訳): 画像とテキストの分類による塩分マップの健全性チェックの検討
- Authors: Narine Kokhlikyan, Vivek Miglani, Bilal Alsallakh, Miguel Martin and
Orion Reblitz-Richardson
- Abstract要約: サリエンシマップは、特に画像の文脈でモデル予測を説明するのに有用であり、誤解を招くものであることが示されている。
本研究では, 類似度スコア, 最大感度, 不忠実度評価指標を用いて, 入力乗数の影響を解析した。
- 参考スコア(独自算出の注目度): 1.836681984330549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saliency maps have shown to be both useful and misleading for explaining
model predictions especially in the context of images. In this paper, we
perform sanity checks for text modality and show that the conclusions made for
image do not directly transfer to text. We also analyze the effects of the
input multiplier in certain saliency maps using similarity scores,
max-sensitivity and infidelity evaluation metrics. Our observations reveal that
the input multiplier carries input's structural patterns in explanation maps,
thus leading to similar results regardless of the choice of model parameters.
We also show that the smoothness of a Neural Network (NN) function can affect
the quality of saliency-based explanations. Our investigations reveal that
replacing ReLUs with Softplus and MaxPool with smoother variants such as
LogSumExp (LSE) can lead to explanations that are more reliable based on the
infidelity evaluation metric.
- Abstract(参考訳): 塩分マップは、特に画像の文脈でモデル予測を説明するのに有用かつ誤解を招くことが示されている。
本稿では,テキストモダリティの健全性チェックを行い,画像に対する結論がテキストに直接転送されないことを示す。
また、類似度スコア、最大感度、不忠実度評価指標を用いて、入力乗数の影響を分析する。
その結果,入力乗算器は説明写像において入力の構造パターンを伝達し,モデルパラメータの選択によらず同様の結果が得られることがわかった。
また、ニューラルネットワーク(NN)関数の滑らかさが、相性に基づく説明の質に影響を及ぼすことを示す。
我々の研究は、ReLUをSoftplusやMaxPoolに置き換え、LogSumExp(LSE)のようなスムーズな変種に置き換えることで、不確実性評価基準に基づいてより信頼性の高い説明を導出できることを示した。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Where do Models go Wrong? Parameter-Space Saliency Maps for
Explainability [47.18202269163001]
私たちは、入力ではなく、ネットワークパラメータを識別し分析する、サリエンシに対する別のアプローチを取ります。
類似したパラメータを誤動作させるサンプルが意味的に類似していることが判明した。
また、間違った分類されたサンプルに対して最も健全なパラメータをプルーニングすることは、しばしばモデルの振る舞いを改善することを示す。
論文 参考訳(メタデータ) (2021-08-03T07:32:34Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Evaluating Input Perturbation Methods for Interpreting CNNs and Saliency
Map Comparison [9.023847175654602]
本稿では,中立なベースライン画像が生成したサリエンシマップに依然として影響を与え,入力摂動による評価を行うことを示す。
入力摂動法における不一致を実験的に明らかにし, サリエンシーマップの生成やサリエンシーマップをサリエンシーメトリクスとして評価するための堅牢性が欠如していることを確認した。
論文 参考訳(メタデータ) (2021-01-26T18:11:06Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。