論文の概要: High Dimensional Model Explanations: an Axiomatic Approach
- arxiv url: http://arxiv.org/abs/2006.08969v2
- Date: Mon, 29 Mar 2021 07:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 19:19:35.901454
- Title: High Dimensional Model Explanations: an Axiomatic Approach
- Title(参考訳): 高次元モデル説明法--軸論的アプローチ
- Authors: Neel Patel, Martin Strobel, Yair Zick
- Abstract要約: 複雑なブラックボックス機械学習モデルは、重要な意思決定領域で頻繁に使用される。
特徴部分集合の結合効果をキャプチャする新しい高次元モデル説明法を提案する。
- 参考スコア(独自算出の注目度): 14.908684655206494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex black-box machine learning models are regularly used in critical
decision-making domains. This has given rise to several calls for algorithmic
explainability. Many explanation algorithms proposed in literature assign
importance to each feature individually. However, such explanations fail to
capture the joint effects of sets of features. Indeed, few works so far
formally analyze high-dimensional model explanations. In this paper, we propose
a novel high dimension model explanation method that captures the joint effect
of feature subsets.
We propose a new axiomatization for a generalization of the Banzhaf index;
our method can also be thought of as an approximation of a black-box model by a
higher-order polynomial. In other words, this work justifies the use of the
generalized Banzhaf index as a model explanation by showing that it uniquely
satisfies a set of natural desiderata and that it is the optimal local
approximation of a black-box model.
Our empirical evaluation of our measure highlights how it manages to capture
desirable behavior, whereas other measures that do not satisfy our axioms
behave in an unpredictable manner.
- Abstract(参考訳): 複雑なブラックボックス機械学習モデルは、重要な意思決定領域で頻繁に使用される。
これにより、アルゴリズムによる説明可能性を求める声がいくつも出ている。
文献で提案される多くの説明アルゴリズムは、各特徴を個別に重要視する。
しかし、そのような説明は特徴集合の合同効果を捉えられなかった。
実際、高次元モデル説明を公式に分析する研究はほとんどない。
本稿では,特徴部分集合の結合効果を捉えた新しい高次元モデル記述法を提案する。
我々はバンジャフ指数の一般化のための新しい公理化を提案し、この手法は高階多項式によるブラックボックスモデルの近似とも考えられる。
言い換えれば、この研究は一般化されたバンジャフ指数をモデル説明として用いることを正当化し、自然デシダラタの集合を一意に満足し、ブラックボックスモデルの最適局所近似であることを示す。
我々の測度に対する実証的な評価は、望ましい振る舞いを捉えているのに対して、我々の公理を満たさない他の測度は予測不可能な振る舞いをする。
関連論文リスト
- An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Explanations of Black-Box Models based on Directional Feature
Interactions [8.25114410474287]
有向グラフにおける特徴的相互作用を捉えることによって,ブラックボックスモデルの説明方法を示す。
IMDB10, Census, Divorce, Drug, および遺伝子データに対して, 本手法の優位性を示す。
論文 参考訳(メタデータ) (2023-04-16T02:00:25Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Explanations Based on Item Response Theory (eXirt): A Model-Specific Method to Explain Tree-Ensemble Model in Trust Perspective [0.4749981032986242]
Ciu、Dalex、Eli5、Lofo、Shap、Skaterといった手法がブラックボックスモデルを説明するために登場した。
Xirtは、ツリーアンサンブルモデルのグローバルな説明とIRTを通してモデルのインスタンスのローカルな説明を生成することができる。
論文 参考訳(メタデータ) (2022-10-18T15:30:14Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Benchmarking and Survey of Explanation Methods for Black Box Models [9.747543620322956]
返された説明の種類に基づいて、説明方法の分類を提供します。
本稿では,最も最近広く使われている説明器を紹介し,説明の視覚的比較と定量的ベンチマークを示す。
論文 参考訳(メタデータ) (2021-02-25T18:50:29Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Metafeatures-based Rule-Extraction for Classifiers on Behavioral and
Textual Data [0.0]
複雑な「ブラックボックス」モデルの予測精度とグローバルな説明可能性を組み合わせるために、ルール抽出手法が提案されている。
我々は,より高度な,よりスパースなメタファに基づくルール抽出手法を開発し,検証する。
我々の分析の鍵となる発見は、メタフェースに基づく説明がブラックボックス予測モデルの振る舞いを模倣するのに優れていることである。
論文 参考訳(メタデータ) (2020-03-10T15:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。