論文の概要: Succint Interaction-Aware Explanations
- arxiv url: http://arxiv.org/abs/2402.05566v1
- Date: Thu, 8 Feb 2024 11:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 15:27:50.523974
- Title: Succint Interaction-Aware Explanations
- Title(参考訳): 簡潔な相互作用-その説明
- Authors: Sascha Xu, Joscha C\"uppers, Jilles Vreeken
- Abstract要約: SHAPは、個々の特徴の重要性を明らかにすることでブラックボックスモデルを説明する一般的なアプローチである。
一方、NSHAPは全ての機能のサブセットに付加的な重要性を報告している。
我々は、これらの2つの世界の長所を、機能を大幅に相互作用する部分に分割することで組み合わせることを提案する。
- 参考スコア(独自算出の注目度): 34.936714447921275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SHAP is a popular approach to explain black-box models by revealing the
importance of individual features. As it ignores feature interactions, SHAP
explanations can be confusing up to misleading. NSHAP, on the other hand,
reports the additive importance for all subsets of features. While this does
include all interacting sets of features, it also leads to an exponentially
sized, difficult to interpret explanation. In this paper, we propose to combine
the best of these two worlds, by partitioning the features into parts that
significantly interact, and use these parts to compose a succinct,
interpretable, additive explanation. We derive a criterion by which to measure
the representativeness of such a partition for a models behavior, traded off
against the complexity of the resulting explanation. To efficiently find the
best partition out of super-exponentially many, we show how to prune
sub-optimal solutions using a statistical test, which not only improves runtime
but also helps to detect spurious interactions. Experiments on synthetic and
real world data show that our explanations are both more accurate resp. more
easily interpretable than those of SHAP and NSHAP.
- Abstract(参考訳): SHAPは、個々の特徴の重要性を明らかにすることでブラックボックスモデルを説明する一般的なアプローチである。
機能間の相互作用を無視するため、shapの説明は誤解を招く可能性がある。
一方、NSHAPは全ての機能のサブセットに付加的な重要性を報告している。
これは全ての相互作用する機能のセットを含むが、指数関数的に大きさがあり、説明を解釈するのは難しい。
本稿では,これら2つの世界を最もよく組み合わせ,特徴を重要な相互作用する部分に分割することで,簡潔で解釈可能で付加的な説明を構成することを提案する。
我々は、モデル行動に対するそのような分割の代表性を測定する基準を導出し、結果として生じる説明の複雑さと引き換えに切り離す。
超指数的多数から最適な分割を効率的に見つけるために、統計的テストを用いてサブ最適解をプルーピングする方法を示し、ランタイムを改善するだけでなく、スプリアスな相互作用を検出するのにも役立っている。
合成データと実世界のデータによる実験では、説明がより正確であることが示されています。
SHAPやNSHAPよりも容易に解釈できる。
関連論文リスト
- Disentangling Interactions and Dependencies in Feature Attribution [9.442326245744916]
機械学習において、グローバルな特徴重要度法は、対象変数の予測に個々の特徴がどの程度貢献するかを判断しようとする。
一般的に用いられる特徴重要度スコアでは、これらの協調効果は特徴の個々の貢献と混同される。
DIPは、3つの成分をアンタングルする個々の特徴重要度スコアを数学的に分解する。
論文 参考訳(メタデータ) (2024-10-31T09:41:10Z) - Unifying local and global model explanations by functional decomposition
of low dimensional structures [0.0]
回帰関数や分類関数のグローバルな説明を主成分と相互作用成分の和に分解して考える。
ここで、qは分解に存在する相互作用の最高位を表す。
論文 参考訳(メタデータ) (2022-08-12T07:38:53Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - $PredDiff$: Explanations and Interactions from Conditional Expectations [0.3655021726150368]
preddiff$ は確率論に根ざしたモデルに依存しない局所帰属法である。
本研究では,$preddiff$の特性を明確にし,元の形式的拡張をいくつか提示する。
論文 参考訳(メタデータ) (2021-02-26T14:46:47Z) - Removing Bias in Multi-modal Classifiers: Regularization by Maximizing
Functional Entropies [88.0813215220342]
いくつかのモダリティは、他のものよりも分類結果に容易に寄与することができる。
機能的エントロピーと機能的フィッシャー情報とを結合した対数ソボレフの不等式に基づく手法を開発した。
VQA-CPv2 と SocialIQ の2つの挑戦的マルチモーダルデータセットに対して,より均一にモダリティを活用しながら,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-10-21T07:40:33Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluating and Aggregating Feature-based Model Explanations [27.677158604772238]
特徴に基づくモデル説明は、各入力特徴が与えられたデータポイントに対するモデルの出力にどの程度貢献するかを示す。
本稿では,低感度,高忠実度,低複雑性といった特徴に基づく説明の定量的評価基準を提案する。
論文 参考訳(メタデータ) (2020-05-01T21:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。