論文の概要: Feature Removal Is a Unifying Principle for Model Explanation Methods
- arxiv url: http://arxiv.org/abs/2011.03623v2
- Date: Mon, 22 Aug 2022 23:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:21:50.870324
- Title: Feature Removal Is a Unifying Principle for Model Explanation Methods
- Title(参考訳): 特徴の除去はモデル説明法の統一原則である
- Authors: Ian Covert, Scott Lundberg, Su-In Lee
- Abstract要約: 文献を検証した結果,多くの手法が,削除による説明の共有原理に基づいていることがわかった。
本研究では,3次元にまたがる各手法を特徴付ける,除去に基づく説明のためのフレームワークを開発する。
我々のフレームワークは26の既存メソッドを統一し、最も広く使われているアプローチをいくつか含む。
- 参考スコア(独自算出の注目度): 14.50261153230204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers have proposed a wide variety of model explanation approaches, but
it remains unclear how most methods are related or when one method is
preferable to another. We examine the literature and find that many methods are
based on a shared principle of explaining by removing - essentially, measuring
the impact of removing sets of features from a model. These methods vary in
several respects, so we develop a framework for removal-based explanations that
characterizes each method along three dimensions: 1) how the method removes
features, 2) what model behavior the method explains, and 3) how the method
summarizes each feature's influence. Our framework unifies 26 existing methods,
including several of the most widely used approaches (SHAP, LIME, Meaningful
Perturbations, permutation tests). Exposing the fundamental similarities
between these methods empowers users to reason about which tools to use, and
suggests promising directions for ongoing model explainability research.
- Abstract(参考訳): 研究者は様々なモデル説明手法を提案しているが、ほとんどの方法がどう関連しているか、ある方法が他の方法よりも好ましいのかは定かではない。
文献を検証し、多くの手法がモデルから特徴集合を除去する影響を本質的に測定することで、説明の共有原理に基づいていることを発見した。
これらの方法はいくつかの点で異なるため、各メソッドを3次元に沿って特徴付ける除去に基づく説明のためのフレームワークを開発する。
1) メソッドが機能をどのように削除するか
2)その方法が説明するモデル行動と,
3) それぞれの特徴の影響を要約する方法。
我々のフレームワークは26の既存手法を統一し、最も広く使われているアプローチ(SHAP, LIME, Meaningful Perturbations, permutation test)を含む。
これらの方法の基本的な類似性を明らかにすることで、ユーザーはどのツールを使うべきかを判断できるようになる。
関連論文リスト
- Unifying Attribution-Based Explanations Using Functional Decomposition [1.8216507818880976]
本稿では,属性に基づく説明手法の統一化フレームワークを提案する。
類似点と説明の相違点の厳密な研究に向けての一歩となる。
論文 参考訳(メタデータ) (2024-12-18T09:04:07Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - counterfactuals: An R Package for Counterfactual Explanation Methods [9.505961054570523]
本稿では, 対物的説明法のためのモジュール・統一インターフェースを提供する, 対物的Rパッケージについて紹介する。
提案手法は,既存の3つの対実的説明法を実装し,オプションの方法論拡張を提案する。
本稿では,パッケージに反実的説明手法を組み込む方法について述べる。
論文 参考訳(メタデータ) (2023-04-13T14:29:15Z) - Which Explanation Should I Choose? A Function Approximation Perspective
to Characterizing Post hoc Explanations [16.678003262147346]
一般的な説明手法は局所関数近似(LFA)フレームワークの例であることを示す。
本稿では,関数近似の観点に基づく指導原理を提案し,基礎となるモデルを復元した場合に有効となる方法を検討する。
実世界の様々なデータセット、モデルクラス、予測タスクを用いて理論的結果を実証的に検証する。
論文 参考訳(メタデータ) (2022-06-02T19:09:30Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。