論文の概要: On Gradient-like Explanation under a Black-box Setting: When Black-box
Explanations Become as Good as White-box
- arxiv url: http://arxiv.org/abs/2308.09381v1
- Date: Fri, 18 Aug 2023 08:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:56:23.758823
- Title: On Gradient-like Explanation under a Black-box Setting: When Black-box
Explanations Become as Good as White-box
- Title(参考訳): ブラックボックス設定時のグラディエント様説明について:ブラックボックス説明がホワイトボックスと同じくらい良い時
- Authors: Yi Cai, Gerhard Wunder
- Abstract要約: 本稿では,ブラックボックス設定下で勾配のような説明を行うGEEXについて述べる。
画像データに着目して,提案手法が最先端のブラックボックス法より優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 11.067435312894197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution methods shed light on the explainability of data-driven
approaches such as deep learning models by revealing the most contributing
features to decisions that have been made. A widely accepted way of deriving
feature attributions is to analyze the gradients of the target function with
respect to input features. Analysis of gradients requires full access to the
target system, meaning that solutions of this kind treat the target system as a
white-box. However, the white-box assumption may be untenable due to security
and safety concerns, thus limiting their practical applications. As an answer
to the limited flexibility, this paper presents GEEX (gradient-estimation-based
explanation), an explanation method that delivers gradient-like explanations
under a black-box setting. Furthermore, we integrate the proposed method with a
path method. The resulting approach iGEEX (integrated GEEX) satisfies the four
fundamental axioms of attribution methods: sensitivity, insensitivity,
implementation invariance, and linearity. With a focus on image data, the
exhaustive experiments empirically show that the proposed methods outperform
state-of-the-art black-box methods and achieve competitive performance compared
to the ones with full access.
- Abstract(参考訳): アトリビューションメソッドは、ディープラーニングモデルのようなデータ駆動アプローチの説明可能性に光を当て、意思決定に最も寄与する機能を明らかにした。
特徴属性を導出する広く受け入れられている方法は、入力特徴に関する対象関数の勾配を分析することである。
勾配の分析にはターゲットシステムへの完全なアクセスが必要であり、この種類のソリューションはターゲットシステムをホワイトボックスとして扱う。
しかし、セキュリティや安全性の懸念から、ホワイトボックスの仮定は不可能である可能性があるため、実用的応用は制限される。
制限された柔軟性に対する応答として,ブラックボックス設定下で勾配のような説明を提供するGEEX(gradient-estimation-based explanation)を提案する。
さらに,提案手法をパス法に統合する。
その結果、iGEEX (integrated GEEX) は属性法の4つの基本公理を満たす:感度、不感度、実装不変性、線形性。
画像データに焦点を合わせることで,提案手法が最先端のブラックボックス法より優れ,フルアクセスの手法と比較して競争性能が向上することを示す。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Forward Learning for Gradient-based Black-box Saliency Map Generation [25.636185607767988]
そこで我々は,ブラックボックス設定の勾配を推定し,モデル決定を解釈するためのサリエンシマップを生成する新しいフレームワークを提案する。
本研究では,出力から入力までの勾配を推定し,その確率比法を用いてサリエンシマップ生成を行う。
ブラックボックス設定における実験により,提案手法の有効性が検証され,精度の高い勾配推定と,生成した塩分濃度マップの説明可能性が確認された。
論文 参考訳(メタデータ) (2024-03-22T20:11:19Z) - Saliency strikes back: How filtering out high frequencies improves white-box explanations [15.328499301244708]
ホワイトボックス」法は、高周波アーティファクトによってしばしば汚染される勾配信号に依存する。
この制限を克服するために、"FORGrad"と呼ばれる新しいアプローチを導入します。
以上の結果から,ForceGradは既存のホワイトボックスメソッドの性能を継続的に向上させることがわかった。
論文 参考訳(メタデータ) (2023-07-18T19:56:20Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Rethinking Positive Aggregation and Propagation of Gradients in
Gradient-based Saliency Methods [47.999621481852266]
Saliencyメソッドは、ニューラルネットワークの予測を、その予測に入力要素の重要性を示すことによって解釈する。
本研究では,勾配情報,すなわち正の凝集と正の伝播を扱うための2つの手法が,これらの手法を破っていることを実証的に示す。
論文 参考訳(メタデータ) (2020-12-01T09:38:54Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。