論文の概要: IG2: Integrated Gradient on Iterative Gradient Path for Feature Attribution
- arxiv url: http://arxiv.org/abs/2406.10852v1
- Date: Sun, 16 Jun 2024 08:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 20:31:44.378017
- Title: IG2: Integrated Gradient on Iterative Gradient Path for Feature Attribution
- Title(参考訳): IG2: 機能属性に対する反復的なグラディエントパスの総合的なグラディエント
- Authors: Yue Zhuo, Zhiqiang Ge,
- Abstract要約: 反復勾配経路統合勾配(IG2)はディープニューラルネットワークの顕著な経路帰属法である。
IG2は逆ファクト勾配を反復的に積分経路に組み込み、新しい経路(GradPath)と新しいベースライン(GradCF)を生成する
XAIベンチマーク、ImageNet、MNIST、TRECの質問に対する回答、ウェハマップの失敗パターン、CelebAの顔属性の実験的結果は、IG2が優れた特徴属性を提供することを示す。
- 参考スコア(独自算出の注目度): 6.278326325782819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution explains Artificial Intelligence (AI) at the instance level by providing importance scores of input features' contributions to model prediction. Integrated Gradients (IG) is a prominent path attribution method for deep neural networks, involving the integration of gradients along a path from the explained input (explicand) to a counterfactual instance (baseline). Current IG variants primarily focus on the gradient of explicand's output. However, our research indicates that the gradient of the counterfactual output significantly affects feature attribution as well. To achieve this, we propose Iterative Gradient path Integrated Gradients (IG2), considering both gradients. IG2 incorporates the counterfactual gradient iteratively into the integration path, generating a novel path (GradPath) and a novel baseline (GradCF). These two novel IG components effectively address the issues of attribution noise and arbitrary baseline choice in earlier IG methods. IG2, as a path method, satisfies many desirable axioms, which are theoretically justified in the paper. Experimental results on XAI benchmark, ImageNet, MNIST, TREC questions answering, wafer-map failure patterns, and CelebA face attributes validate that IG2 delivers superior feature attributions compared to the state-of-the-art techniques. The code is released at: https://github.com/JoeZhuo-ZY/IG2.
- Abstract(参考訳): 特徴属性(Feature Attribution)は、入力特徴のモデル予測へのコントリビューションの重要スコアを提供することによって、人工知能(AI)をインスタンスレベルで説明する。
統合グラディエント(IG)は、説明された入力(説明)から反実例(ベースライン)への経路に沿った勾配の統合を含む、ディープニューラルネットワークの顕著な経路帰属法である。
現在のIG変種は主にExplicandの出力の勾配に焦点を当てている。
しかし,本研究では,反事実出力の勾配が特徴属性にも大きく影響していることが示唆された。
これを実現するために,両勾配を考慮した反復勾配経路統合勾配 (IG2) を提案する。
IG2は、反ファクト的勾配を積分経路に反復的に組み込み、新しい経路(GradPath)と新しいベースライン(GradCF)を生成する。
これら2つの新しいIG成分は、初期のIG法における帰属雑音と任意のベースライン選択の問題に効果的に対処する。
IG2は経路法として、理論上正当化される多くの望ましい公理を満たす。
XAIベンチマーク、ImageNet、MNIST、TRECの質問に対する回答、ウエハマップの失敗パターン、CelebAの顔属性に関する実験結果は、IG2が最先端技術と比較して優れた属性を提供することを示す。
コードはhttps://github.com/JoeZhuo-ZY/IG2.comで公開されている。
関連論文リスト
- GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Integrated Decision Gradients: Compute Your Attributions Where the Model
Makes Its Decision [9.385886214196479]
我々は、IDG(Integrated decision gradients)と呼ばれる帰属アルゴリズムを提案する。
IDGは、モデルが決定する経路の領域、すなわち出力ロジットがゼロから最終値に急速に遷移する経路の部分からの勾配の統合に焦点を当てている。
適応サンプリングによって決定される一様でない部分分割を利用して経路積分の和近似における誤差を最小化する。
論文 参考訳(メタデータ) (2023-05-31T17:25:12Z) - Unifying gradient regularization for Heterogeneous Graph Neural Networks [6.3093033645568015]
本稿では,Grug と呼ばれる新しい勾配正規化手法を提案する。
Grugはグラフトポロジとノード特徴を統合した統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T07:47:42Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Gradient Correction beyond Gradient Descent [63.33439072360198]
勾配補正は明らかに、ニューラルネットワークのトレーニングにおいて、最も重要な側面である。
勾配補正を行うためのフレームワーク(textbfGCGD)を導入する。
実験結果から, 勾配補正フレームワークは, トレーニングエポックスを$sim$20%削減し, ネットワーク性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-03-16T01:42:25Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - Discretized Integrated Gradients for Explaining Language Models [43.2877233809206]
Integrated Gradients (IG) は属性に基づく説明アルゴリズムである。
非線型経路に沿った効果的な帰属を可能にする離散化統合勾配(DIG)を提案する。
論文 参考訳(メタデータ) (2021-08-31T07:36:34Z) - Guided Integrated Gradients: An Adaptive Path Method for Removing Noise [9.792727625917083]
統合グラディエンツ(IG)は、ディープニューラルネットワークのための一般的な特徴属性法である。
問題の原因の1つは、IG経路に沿ったノイズの蓄積である。
我々は、帰属経路自体に適応することを提案し、画像だけでなく、説明されるモデルにも経路を条件付けする。
論文 参考訳(メタデータ) (2021-06-17T20:00:55Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。