論文の概要: Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution
- arxiv url: http://arxiv.org/abs/2004.10484v2
- Date: Thu, 2 Sep 2021 17:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:10:52.997443
- Title: Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution
- Title(参考訳): 深層ニューラルネットワークのためのsmoothtaylorを用いた統合勾配の理解
- Authors: Gary S. W. Goh, Sebastian Lapuschkin, Leander Weber, Wojciech Samek,
Alexander Binder
- Abstract要約: ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
- 参考スコア(独自算出の注目度): 70.78655569298923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrated Gradients as an attribution method for deep neural network models
offers simple implementability. However, it suffers from noisiness of
explanations which affects the ease of interpretability. The SmoothGrad
technique is proposed to solve the noisiness issue and smoothen the attribution
maps of any gradient-based attribution method. In this paper, we present
SmoothTaylor as a novel theoretical concept bridging Integrated Gradients and
SmoothGrad, from the Taylor's theorem perspective. We apply the methods to the
image classification problem, using the ILSVRC2012 ImageNet object recognition
dataset, and a couple of pretrained image models to generate attribution maps.
These attribution maps are empirically evaluated using quantitative measures
for sensitivity and noise level. We further propose adaptive noising to
optimize for the noise scale hyperparameter value. From our experiments, we
find that the SmoothTaylor approach together with adaptive noising is able to
generate better quality saliency maps with lesser noise and higher sensitivity
to the relevant points in the input space as compared to Integrated Gradients.
- Abstract(参考訳): ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
しかし、理解しやすさに影響を及ぼす説明のうるささに悩まされる。
スムースグレード法は,任意の勾配に基づく帰属法の帰属写像を滑らかにするために提案されている。
本稿では,テイラーの定理の観点から,統合勾配とスムースグレードを橋渡しする新しい理論概念として,s smoothtaylorを提案する。
ilsvrc2012 imagenet object recognition datasetといくつかの事前学習された画像モデルを用いて、画像分類問題に適用し、帰属マップを生成する。
これらの属性マップは感度と雑音レベルを定量的に評価する。
さらに,ノイズスケールのハイパーパラメータを最適化するための適応ノーミングを提案する。
実験の結果,SmoothTaylorアプローチと適応雑音の併用により,入力空間の関連点に対する感度が向上し,ノイズが少なく,より高品質なサリエンシマップが生成できることが判明した。
関連論文リスト
- On the Trade-Off between Stability and Fidelity of Gaussian-Smoothed Saliency Maps [9.054540533394926]
本研究では,Smooth-Gradアルゴリズムにおけるランダムな平滑化が,勾配マップの安定性とトレーニングサンプルのランダム性に果たす役割について検討する。
本理論は,勾配図の安定性をトレーニング設定のランダム性に高める上でガウス平滑化が果たす役割を示唆するものである。
論文 参考訳(メタデータ) (2024-11-06T13:26:57Z) - Rethinking the Principle of Gradient Smooth Methods in Model Explanation [2.6819730646697972]
グラディエント・スムーシング(Gradient Smoothing)は、勾配モデル記述法における雑音の低減に有効な手法である。
これらの知見に基づいて適応的な勾配平滑化手法AdaptGradを提案する。
論文 参考訳(メタデータ) (2024-10-10T08:24:27Z) - A Learning Paradigm for Interpretable Gradients [9.074325843851726]
本稿では,解釈可能性向上のための新たな学習手法を提案する。
得られた勾配は定性的にノイズが少なく、異なるネットワークの解釈可能性特性を定量的に改善する。
論文 参考訳(メタデータ) (2024-04-23T13:32:29Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - DWDN: Deep Wiener Deconvolution Network for Non-Blind Image Deblurring [66.91879314310842]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールのカスケード機能改善モジュールは、分離された深い特徴から退色画像を予測する。
提案したDeep Wienerデコンボリューションネットワークは,目に見える成果物が少なく,かつ,最先端の非盲点画像デコンボリューション手法を広いマージンで定量的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Investigating Saturation Effects in Integrated Gradients [5.366801257602863]
不飽和領域の勾配を主に捉える積分勾配の変種を提案する。
この帰属的手法により,標準積分勾配と組み合わせたモデル忠実度が向上し,雑音に対する感度が低下することが判明した。
論文 参考訳(メタデータ) (2020-10-23T22:48:02Z) - Physics-based Shading Reconstruction for Intrinsic Image Decomposition [20.44458250060927]
物理モデルから導出したアルベドおよびシェーディング勾配記述子を提案する。
学習自由な教師なし方法で対応するRGB画像勾配から直接、初期スパースシェーディングマップを算出する。
フル密度シェーディングマップを再構築する最適化手法を提案する。
我々はシェーディング推定のテクスチャと強度のあいまいさ問題に直接対処する最初の人物である。
論文 参考訳(メタデータ) (2020-09-03T09:30:17Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。