論文の概要: Weighted Average Gradients for Feature Attribution
- arxiv url: http://arxiv.org/abs/2505.03201v1
- Date: Tue, 06 May 2025 05:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.224734
- Title: Weighted Average Gradients for Feature Attribution
- Title(参考訳): 特徴属性に対する重み付き平均勾配
- Authors: Kien Tran Duc Tuan, Tam Nguyen Trong, Son Nguyen Hoang, Khoat Than, Anh Nguyen Duc,
- Abstract要約: 説明可能なAIでは、インテグレート・グラディエンス(IG)はモデル出力における入力の特徴属性の重要性を評価するために広く採用されている手法である。
この研究はベースラインを同等に扱うべきではないと主張している。
Weighted Average Gradients (WG) は、教師なしでベースライン適合性を評価し、効果的なベースラインを選択するための戦略を取り入れた新しいアプローチである。
- 参考スコア(独自算出の注目度): 2.3226745625632947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In explainable AI, Integrated Gradients (IG) is a widely adopted technique for assessing the significance of feature attributes of the input on model outputs by evaluating contributions from a baseline input to the current input. The choice of the baseline input significantly influences the resulting explanation. While the traditional Expected Gradients (EG) method assumes baselines can be uniformly sampled and averaged with equal weights, this study argues that baselines should not be treated equivalently. We introduce Weighted Average Gradients (WG), a novel approach that unsupervisedly evaluates baseline suitability and incorporates a strategy for selecting effective baselines. Theoretical analysis demonstrates that WG satisfies essential explanation method criteria and offers greater stability than prior approaches. Experimental results further confirm that WG outperforms EG across diverse scenarios, achieving an improvement of 10-35\% on main metrics. Moreover, by evaluating baselines, our method can filter a subset of effective baselines for each input to calculate explanations, maintaining high accuracy while reducing computational cost. The code is available at: https://github.com/Tamnt240904/weighted_baseline.
- Abstract(参考訳): IG(Integrated Gradients)は、ベースライン入力から現在の入力へのコントリビューションを評価することで、モデル出力における入力の特徴属性の重要性を評価する手法である。
ベースライン入力の選択は、その結果の説明に大きく影響する。
従来のEG法では、ベースラインは均一にサンプリングされ、等しい重量で平均化できるが、この研究はベースラインを同等に扱うべきではないと論じている。
Weighted Average Gradients (WG) は、教師なしでベースライン適合性を評価し、効果的なベースラインを選択するための戦略を取り入れた新しいアプローチである。
理論的解析により、WGは本質的な説明法基準を満たし、従来の手法よりも高い安定性を提供することが示された。
実験の結果、WGは様々なシナリオでEGより優れており、主要なメトリクスで10~35倍改善されていることが確認された。
さらに,ベースラインの評価により,各入力に対して有効なベースラインのサブセットをフィルタリングして説明を計算し,計算コストを低減しつつ高い精度を維持することができる。
コードは、https://github.com/Tamnt240904/weighted_baseline.comで入手できる。
関連論文リスト
- Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Backdoor-based Explainable AI Benchmark for High Fidelity Evaluation of Attribution Methods [49.62131719441252]
属性法は入力特徴の重要度を計算し、深層モデルの出力予測を説明する。
本研究はまず,属性手法の信頼性ベンチマークが満たすであろう信頼度基準の集合を同定する。
次に、望ましい忠実度基準に準拠したBackdoorベースのeXplainable AIベンチマーク(BackX)を紹介します。
論文 参考訳(メタデータ) (2024-05-02T13:48:37Z) - A New Baseline Assumption of Integated Gradients Based on Shaply value [31.2051113305947]
統合グラディエンス(IG)は、ディープニューラルネットワーク(DNN)の入力特徴に予測をマッピングする技術である。
単一のベースラインを利用する標準的なアプローチは、しばしば不十分であり、複数のベースラインの必要性を招きかねない。
そこで本研究では,Shapley値プロセスに比例サンプリングを用いたShapley Integrated Gradients (SIG) と呼ばれる新しいベースライン手法を開発した。
論文 参考訳(メタデータ) (2023-10-07T14:19:07Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Variance Reduction for Score Functions Using Optimal Baselines [0.0]
本稿では,スコア関数の分散化手法であるベースラインについて検討する。
主に強化学習によって動機付けされ、最適な状態依存ベースラインの表現が初めて導かれる。
論文 参考訳(メタデータ) (2022-12-27T19:17:28Z) - Maximum Entropy Baseline for Integrated Gradients [0.0]
統合グラディエンス(IG)は、利用可能な最も一般的な説明可能性の方法の1つである。
本研究では、新しい一様基底線、すなわち最大エントロピー基底線を提案する。
論文 参考訳(メタデータ) (2022-04-12T17:04:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。