論文の概要: Integrated Decision Gradients: Compute Your Attributions Where the Model
Makes Its Decision
- arxiv url: http://arxiv.org/abs/2305.20052v2
- Date: Mon, 18 Dec 2023 18:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 02:19:08.561363
- Title: Integrated Decision Gradients: Compute Your Attributions Where the Model
Makes Its Decision
- Title(参考訳): 総合的な決定勾配:モデルが決定を下す場所の属性を計算する
- Authors: Chase Walker, Sumit Jha, Kenny Chen, Rickard Ewetz
- Abstract要約: 我々は、IDG(Integrated decision gradients)と呼ばれる帰属アルゴリズムを提案する。
IDGは、モデルが決定する経路の領域、すなわち出力ロジットがゼロから最終値に急速に遷移する経路の部分からの勾配の統合に焦点を当てている。
適応サンプリングによって決定される一様でない部分分割を利用して経路積分の和近似における誤差を最小化する。
- 参考スコア(独自算出の注目度): 9.385886214196479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Attribution algorithms are frequently employed to explain the decisions of
neural network models. Integrated Gradients (IG) is an influential attribution
method due to its strong axiomatic foundation. The algorithm is based on
integrating the gradients along a path from a reference image to the input
image. Unfortunately, it can be observed that gradients computed from regions
where the output logit changes minimally along the path provide poor
explanations for the model decision, which is called the saturation effect
problem. In this paper, we propose an attribution algorithm called integrated
decision gradients (IDG). The algorithm focuses on integrating gradients from
the region of the path where the model makes its decision, i.e., the portion of
the path where the output logit rapidly transitions from zero to its final
value. This is practically realized by scaling each gradient by the derivative
of the output logit with respect to the path. The algorithm thereby provides a
principled solution to the saturation problem. Additionally, we minimize the
errors within the Riemann sum approximation of the path integral by utilizing
non-uniform subdivisions determined by adaptive sampling. In the evaluation on
ImageNet, it is demonstrated that IDG outperforms IG, Left-IG, Guided IG, and
adversarial gradient integration both qualitatively and quantitatively using
standard insertion and deletion metrics across three common models.
- Abstract(参考訳): 帰属アルゴリズムは、ニューラルネットワークモデルの決定を説明するために頻繁に用いられる。
統合グラディエンツ(IG)は、その強い公理的基盤により、重要な帰属法である。
アルゴリズムは、参照画像から入力画像への経路に沿って勾配を統合することに基づいている。
残念ながら、出力ロジットが経路に沿って最小に変化する領域から計算された勾配は、飽和効果問題と呼ばれるモデル決定の不十分な説明をもたらすことが観察できる。
本稿では,IDG(Integrated decision gradients)と呼ばれる帰属アルゴリズムを提案する。
このアルゴリズムは、モデルが決定を下す経路の領域、すなわち出力ロジットがゼロから最終値に急速に遷移する経路の一部からの勾配の統合に焦点を当てている。
これは、経路に対する出力ロジットの微分によって各勾配をスケーリングすることで実現される。
これにより、アルゴリズムは飽和問題に対する原理的な解を与える。
さらに,適応サンプリングによって決定される非一様部分分割を利用して,経路積分のリーマン和近似における誤差を最小化する。
ImageNetの評価において、IDGはIG, left-IG, Guided IG, および3つの共通モデルにわたる標準挿入・削除指標を用いて、定性的かつ定量的に対向勾配積分を上回ることを示した。
関連論文リスト
- Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Guided Integrated Gradients: An Adaptive Path Method for Removing Noise [9.792727625917083]
統合グラディエンツ(IG)は、ディープニューラルネットワークのための一般的な特徴属性法である。
問題の原因の1つは、IG経路に沿ったノイズの蓄積である。
我々は、帰属経路自体に適応することを提案し、画像だけでなく、説明されるモデルにも経路を条件付けする。
論文 参考訳(メタデータ) (2021-06-17T20:00:55Z) - Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring [26.434705114982584]
Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
Grad-CAMのグラデーションベース項のパス積分を計算することで、この問題に取り組むソリューションを紹介します。
CNNの予測のために抽出された表現の重要性を計測する手法で達成した改善を徹底した分析を行います。
論文 参考訳(メタデータ) (2021-02-15T19:21:46Z) - Investigating Saturation Effects in Integrated Gradients [5.366801257602863]
不飽和領域の勾配を主に捉える積分勾配の変種を提案する。
この帰属的手法により,標準積分勾配と組み合わせたモデル忠実度が向上し,雑音に対する感度が低下することが判明した。
論文 参考訳(メタデータ) (2020-10-23T22:48:02Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。