論文の概要: Geometrically Guided Integrated Gradients
- arxiv url: http://arxiv.org/abs/2206.05903v1
- Date: Mon, 13 Jun 2022 05:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 01:39:18.889998
- Title: Geometrically Guided Integrated Gradients
- Title(参考訳): 幾何学的ガイドによる統合勾配
- Authors: Md Mahfuzur Rahman, Noah Lewis, Sergey Plis
- Abstract要約: 我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability methods for deep neural networks mainly focus on the
sensitivity of the class score with respect to the original or perturbed input,
usually measured using actual or modified gradients. Some methods also use a
model-agnostic approach to understanding the rationale behind every prediction.
In this paper, we argue and demonstrate that local geometry of the model
parameter space relative to the input can also be beneficial for improved
post-hoc explanations. To achieve this goal, we introduce an interpretability
method called "geometrically-guided integrated gradients" that builds on top of
the gradient calculation along a linear path as traditionally used in
integrated gradient methods. However, instead of integrating gradient
information, our method explores the model's dynamic behavior from multiple
scaled versions of the input and captures the best possible attribution for
each input. We demonstrate through extensive experiments that the proposed
approach outperforms vanilla and integrated gradients in subjective and
quantitative assessment. We also propose a "model perturbation" sanity check to
complement the traditionally used "model randomization" test.
- Abstract(参考訳): 深層ニューラルネットワークの解釈可能性の方法は、主に元の入力や摂動入力に対するクラススコアの感度に焦点が当てられ、通常は実際の勾配や修正された勾配を用いて測定される。
予測の裏にある理性を理解するために、モデルに依存しないアプローチを使う方法もある。
本稿では,入力に対するモデルパラメータ空間の局所的幾何が,ポストホックな説明を改善する上でも有用であることを論じ,実証する。
この目的を達成するために,従来の統合勾配法のように,線形経路に沿った勾配計算の上に構築する「幾何学的誘導型統合勾配」と呼ばれる解釈可能性手法を提案する。
しかし、勾配情報を統合する代わりに、入力の複数のスケールバージョンからモデルの動的挙動を探索し、各入力に対する最良の属性をキャプチャする。
提案手法が,主観的および定量的評価においてバニラや統合的勾配よりも優れていることを示す。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
関連論文リスト
- Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Differentiable Agent-Based Simulation for Gradient-Guided
Simulation-Based Optimization [0.0]
勾配推定法は局所最適化に向けて最適化を行うのに利用できる。
高入力次元の信号タイミング最適化問題では、勾配に基づく手法の方がかなり優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-23T11:58:21Z) - Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring [26.434705114982584]
Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
Grad-CAMのグラデーションベース項のパス積分を計算することで、この問題に取り組むソリューションを紹介します。
CNNの予測のために抽出された表現の重要性を計測する手法で達成した改善を徹底した分析を行います。
論文 参考訳(メタデータ) (2021-02-15T19:21:46Z) - Rethinking Positive Aggregation and Propagation of Gradients in
Gradient-based Saliency Methods [47.999621481852266]
Saliencyメソッドは、ニューラルネットワークの予測を、その予測に入力要素の重要性を示すことによって解釈する。
本研究では,勾配情報,すなわち正の凝集と正の伝播を扱うための2つの手法が,これらの手法を破っていることを実証的に示す。
論文 参考訳(メタデータ) (2020-12-01T09:38:54Z) - A Generalized Stacking for Implementing Ensembles of Gradient Boosting
Machines [5.482532589225552]
勾配ブースティングモデルのアンサンブル構築手法を提案する。
提案手法は任意の微分可能な組合せモデル上で簡単に拡張できることが示されている。
論文 参考訳(メタデータ) (2020-10-12T21:05:45Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。