論文の概要: Input Bias in Rectified Gradients and Modified Saliency Maps
- arxiv url: http://arxiv.org/abs/2011.05002v3
- Date: Tue, 1 Dec 2020 10:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 06:56:36.807624
- Title: Input Bias in Rectified Gradients and Modified Saliency Maps
- Title(参考訳): 整流勾配と修正塩分写像における入力バイアス
- Authors: Lennart Brocki, Neo Christopher Chung
- Abstract要約: 唾液マップは、分類や潜伏概念にかなりの影響を及ぼす入力特徴を特定する直感的な方法を提供する。
Rectified Gradients(英語版)のような従来の唾液マップへのいくつかの変更は、解釈可能性を高めるために導入されている。
入力画像の暗黒領域は、クラスや概念に関係があっても、Rectified Gradients を用いた塩分マップでは強調されないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretation and improvement of deep neural networks relies on better
understanding of their underlying mechanisms. In particular, gradients of
classes or concepts with respect to the input features (e.g., pixels in images)
are often used as importance scores or estimators, which are visualized in
saliency maps. Thus, a family of saliency methods provide an intuitive way to
identify input features with substantial influences on classifications or
latent concepts. Several modifications to conventional saliency maps, such as
Rectified Gradients and Layer-wise Relevance Propagation (LRP), have been
introduced to allegedly denoise and improve interpretability. While visually
coherent in certain cases, Rectified Gradients and other modified saliency maps
introduce a strong input bias (e.g., brightness in the RGB space) because of
inappropriate uses of the input features. We demonstrate that dark areas of an
input image are not highlighted by a saliency map using Rectified Gradients,
even if it is relevant for the class or concept. Even in the scaled images, the
input bias exists around an artificial point in color spectrum. Our
modification, which simply eliminates multiplication with input features,
removes this bias. This showcases how a visual criteria may not align with true
explainability of deep learning models.
- Abstract(参考訳): ディープニューラルネットワークの解釈と改善は、その基盤となるメカニズムをよりよく理解することに依存する。
特に、入力特徴(例えば画像中のピクセル)に関するクラスや概念の勾配は、しばしば重要度スコアや推定値として使われ、これは塩分マップで可視化される。
このように、敬礼メソッドのファミリーは、分類や潜在概念に大きな影響を与える入力特徴を直感的に識別する方法を提供する。
Rectified Gradients や Layer-wise Relevance Propagation (LRP) などの従来の塩分マップへのいくつかの変更が、解釈可能性の向上のために導入されている。
特定のケースでは視覚的に一貫性があるが、Rectified Gradientsや他の修正されたサリエンシマップは、入力特徴の不適切な使用のために強い入力バイアス(例えば、RGB空間の明るさ)をもたらす。
入力画像の暗黒領域は、クラスや概念に関係があっても、Rectified Gradients を用いた塩分マップでは強調されないことを示す。
スケールした画像でさえ、入力バイアスは色スペクトルの人工的な点周辺に存在する。
入力機能との乗算を単純に排除する修正は、このバイアスを取り除く。
これは、視覚的基準がディープラーニングモデルの真の説明可能性とどのように一致しないかを示す。
関連論文リスト
- Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - A Learning Paradigm for Interpretable Gradients [9.074325843851726]
本稿では,解釈可能性向上のための新たな学習手法を提案する。
得られた勾配は定性的にノイズが少なく、異なるネットワークの解釈可能性特性を定量的に改善する。
論文 参考訳(メタデータ) (2024-04-23T13:32:29Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Neural Gradient Regularizer [150.85797800807524]
ニューラルネットワークの出力として勾配マップを表現するニューラルネットワーク勾配正規化器(NGR)を提案する。
NGRは、さまざまなイメージタイプと異なる画像処理タスクに適用でき、ゼロショット学習方式で機能する。
論文 参考訳(メタデータ) (2023-08-31T10:19:23Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Evaluating Input Perturbation Methods for Interpreting CNNs and Saliency
Map Comparison [9.023847175654602]
本稿では,中立なベースライン画像が生成したサリエンシマップに依然として影響を与え,入力摂動による評価を行うことを示す。
入力摂動法における不一致を実験的に明らかにし, サリエンシーマップの生成やサリエンシーマップをサリエンシーメトリクスとして評価するための堅牢性が欠如していることを確認した。
論文 参考訳(メタデータ) (2021-01-26T18:11:06Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。