論文の概要: Don't Lie to Me! Robust and Efficient Explainability with Verified
Perturbation Analysis
- arxiv url: http://arxiv.org/abs/2202.07728v2
- Date: Sat, 18 Mar 2023 10:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 05:15:16.627939
- Title: Don't Lie to Me! Robust and Efficient Explainability with Verified
Perturbation Analysis
- Title(参考訳): 嘘をつくな!
検証摂動解析によるロバストかつ効率的な説明可能性
- Authors: Thomas Fel, Melanie Ducoffe, David Vigouroux, Remi Cadene, Mikael
Capelle, Claire Nicodeme, Thomas Serre
- Abstract要約: 摂動空間を徹底的に探索することを保証する最初の説明可能性法であるEVAを紹介する。
モデル決定を駆動する可能性が最も高い入力変数を効率よく特徴付けるために、検証された摂動解析の有益性を利用する。
- 参考スコア(独自算出の注目度): 6.15738282053772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A variety of methods have been proposed to try to explain how deep neural
networks make their decisions. Key to those approaches is the need to sample
the pixel space efficiently in order to derive importance maps. However, it has
been shown that the sampling methods used to date introduce biases and other
artifacts, leading to inaccurate estimates of the importance of individual
pixels and severely limit the reliability of current explainability methods.
Unfortunately, the alternative -- to exhaustively sample the image space is
computationally prohibitive. In this paper, we introduce EVA (Explaining using
Verified perturbation Analysis) -- the first explainability method guarantee to
have an exhaustive exploration of a perturbation space. Specifically, we
leverage the beneficial properties of verified perturbation analysis -- time
efficiency, tractability and guaranteed complete coverage of a manifold -- to
efficiently characterize the input variables that are most likely to drive the
model decision. We evaluate the approach systematically and demonstrate
state-of-the-art results on multiple benchmarks.
- Abstract(参考訳): ディープニューラルネットワークの意思決定方法を説明するために、さまざまな方法が提案されている。
これらのアプローチの鍵は、ピクセル空間を効率的にサンプリングして重要度マップを導出する必要があることである。
しかし,従来のサンプリング手法ではバイアスやその他のアーティファクトを導入し,個々の画素の重要性を不正確な評価を行い,現在の説明可能性手法の信頼性を著しく制限することが示されている。
残念ながら、画像空間を徹底的にサンプリングする代替手段は、計算的に禁止されている。本稿では、摂動空間を徹底的に探索することを保証する最初の説明可能性法であるEVA(Verified perturbation Analysis)を紹介する。
具体的には、検証された摂動解析(時間効率、トラクタビリティ、多様体の完全なカバレッジを保証する)の利点を活用して、モデル決定を駆動する可能性が高い入力変数を効率的に特徴づける。
提案手法を系統的に評価し,複数のベンチマークで最新の結果を示す。
関連論文リスト
- Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - Bayesian Hierarchical Models for Counterfactual Estimation [12.159830463756341]
本稿では,多種多様なカウンターファクトの集合を推定する確率的パラダイムを提案する。
摂動を事前分布関数によるランダム変数として扱う。
収束特性の優れた勾配ベースサンプリング器は、後方サンプルを効率的に計算する。
論文 参考訳(メタデータ) (2023-01-21T00:21:11Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Fidelity of Interpretability Methods and Perturbation Artifacts in
Neural Networks [5.439020425819001]
ポストホック解釈可能性法は,クラス確率に対する入力特徴の重要性を定量化することを目的としている。
解釈可能性評価手法の一般的なアプローチは、与えられた予測に重要な入力特徴を摂動させ、精度の低下を観測することである。
摂動入力特徴量からモデル精度曲線を利用して,そのようなアーチファクトが忠実度推定に与える影響を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-03-06T10:14:09Z) - Time to Focus: A Comprehensive Benchmark Using Time Series Attribution
Methods [4.9449660544238085]
本論文は時系列解析といくつかの最先端属性手法のベンチマークに焦点をあてる。
本実験では, 勾配および摂動に基づく帰属法について検討した。
その結果,最も適した帰属法を選択することは,所望のユースケースと強く相関していることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T10:06:13Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - DANCE: Enhancing saliency maps using decoys [35.46266461621123]
本稿では,2段階の手順に従うことで,サリエンシ手法の堅牢性を向上させる枠組みを提案する。
まず、中間表現を変更せずに入力サンプルを微妙に変化させる摂動機構を導入する。
第2に、摂動サンプルの塩分マップを計算し、塩分マップを集約する新しい方法を提案する。
論文 参考訳(メタデータ) (2020-02-03T01:21:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。