論文の概要: Visual Explanations from Deep Networks via Riemann-Stieltjes Integrated
Gradient-based Localization
- arxiv url: http://arxiv.org/abs/2205.10900v1
- Date: Sun, 22 May 2022 18:30:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:13:40.774353
- Title: Visual Explanations from Deep Networks via Riemann-Stieltjes Integrated
Gradient-based Localization
- Title(参考訳): Riemann-Stieltjes統合配位による深層ネットワークからの視覚的説明
- Authors: Mirtha Lucas, Miguel Lerma, Jacob Furst, Daniela Raicu
- Abstract要約: 我々は,CNNの予測のための視覚的説明を生成する新しい手法を提案する。
本手法はネットワークの任意の層に適用可能であり, 積分勾配と同様, 勾配の消失問題の影響を受けない。
Grad-CAMと比較して、我々のアルゴリズムが生成したヒートマップは興味のある領域に集中しており、数値計算はより安定である。
- 参考スコア(独自算出の注目度): 0.24596929878045565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are becoming increasingly better at tasks that involve
classifying and recognizing images. At the same time techniques intended to
explain the network output have been proposed. One such technique is the
Gradient-based Class Activation Map (Grad-CAM), which is able to locate
features of an input image at various levels of a convolutional neural network
(CNN), but is sensitive to the vanishing gradients problem. There are
techniques such as Integrated Gradients (IG), that are not affected by that
problem, but its use is limited to the input layer of a network. Here we
introduce a new technique to produce visual explanations for the predictions of
a CNN. Like Grad-CAM, our method can be applied to any layer of the network,
and like Integrated Gradients it is not affected by the problem of vanishing
gradients. For efficiency, gradient integration is performed numerically at the
layer level using a Riemann-Stieltjes sum approximation. Compared to Grad-CAM,
heatmaps produced by our algorithm are better focused in the areas of interest,
and their numerical computation is more stable. Our code is available at
https://github.com/mlerma54/RSIGradCAM
- Abstract(参考訳): 画像の分類と認識に関わるタスクでは、ニューラルネットワークがますます良くなっている。
同時に,ネットワーク出力を説明する手法が提案されている。
このような手法のひとつにGradient-based Class Activation Map (Grad-CAM)があり、畳み込みニューラルネットワーク(CNN)の様々なレベルで入力画像の特徴を特定することができるが、消滅する勾配問題に敏感である。
IG(Integrated Gradients)など,この問題の影響を受けないテクニックもあるが,その使用はネットワークの入力層に限られる。
本稿では,CNNの予測を視覚的に説明するための新しい手法を提案する。
grad-camと同様に,本手法はネットワークの任意の層に適用可能であり,集積勾配と同様,勾配の消失の問題に影響を受けない。
効率のために、勾配積分はリーマン=スティルチェス和近似を用いて層レベルで数値的に行われる。
grad-camと比較して,本アルゴリズムが生成するヒートマップは興味のある領域に焦点を合わせ,その数値計算はより安定である。
私たちのコードはhttps://github.com/mlerma54/RSIGradCAMで利用可能です。
関連論文リスト
- How to guess a gradient [68.98681202222664]
我々は、勾配が以前考えられていたよりもより構造化されていることを示す。
この構造をエクスプロイトすると、勾配のない最適化スキームが大幅に改善される。
厳密な勾配の最適化と勾配の推測の間に大きなギャップを克服する上での新たな課題を強調した。
論文 参考訳(メタデータ) (2023-12-07T21:40:44Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - A Framework for Provably Stable and Consistent Training of Deep
Feedforward Networks [4.21061712600981]
本稿では、教師付き(分類と回帰)および教師なし(強化学習)シナリオにおいて、ディープニューラルネットワークを訓練するための新しいアルゴリズムを提案する。
このアルゴリズムは、標準降下勾配と勾配クリッピング法を組み合わせたものである。
理論的および実験を通して、我々のアルゴリズム更新はばらつきが低く、トレーニング損失はスムーズな方法で減少することを示す。
論文 参考訳(メタデータ) (2023-05-20T07:18:06Z) - Gradient Correction beyond Gradient Descent [63.33439072360198]
勾配補正は明らかに、ニューラルネットワークのトレーニングにおいて、最も重要な側面である。
勾配補正を行うためのフレームワーク(textbfGCGD)を導入する。
実験結果から, 勾配補正フレームワークは, トレーニングエポックスを$sim$20%削減し, ネットワーク性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-03-16T01:42:25Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Scaling Symbolic Methods using Gradients for Neural Model Explanation [22.568591780291776]
そこで本研究では,勾配に基づく手法と記号的手法を組み合わせた解析手法を提案する。
特に,この手法を用いて,ニューラルネットワークの予測に最も関係のある入力の最小領域を同定する。
MNIST, ImageNet, Beer Reviews という3つのデータセットを用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-29T19:12:22Z) - GradAug: A New Regularization Method for Deep Neural Networks [19.239311087570318]
本稿では,ディープニューラルネットワークにおける過剰適合を緩和する新たな正規化手法を提案する。
提案手法は,ネットワークの生勾配に自己誘導障害を導入する。
GradAugは、ネットワークがより一般化され、より多様な表現を学習するのに役立つことを実証する。
論文 参考訳(メタデータ) (2020-06-14T19:30:34Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。