論文の概要: How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors?
- arxiv url: http://arxiv.org/abs/2310.18496v1
- Date: Fri, 27 Oct 2023 21:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 18:21:00.141153
- Title: How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors?
- Title(参考訳): 機能付加型説明器は、機能付加型予測器をどの程度うまく説明できるのか?
- Authors: Zachariah Carmichael, Walter J. Scheirer
- Abstract要約: LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
- 参考スコア(独自算出の注目度): 12.993027779814478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surging interest in deep learning from high-stakes domains has precipitated
concern over the inscrutable nature of black box neural networks. Explainable
AI (XAI) research has led to an abundance of explanation algorithms for these
black boxes. Such post hoc explainers produce human-comprehensible
explanations, however, their fidelity with respect to the model is not well
understood - explanation evaluation remains one of the most challenging issues
in XAI. In this paper, we ask a targeted but important question: can popular
feature-additive explainers (e.g., LIME, SHAP, SHAPR, MAPLE, and PDP) explain
feature-additive predictors? Herein, we evaluate such explainers on ground
truth that is analytically derived from the additive structure of a model. We
demonstrate the efficacy of our approach in understanding these explainers
applied to symbolic expressions, neural networks, and generalized additive
models on thousands of synthetic and several real-world tasks. Our results
suggest that all explainers eventually fail to correctly attribute the
importance of features, especially when a decision-making process involves
feature interactions.
- Abstract(参考訳): 高度なドメインからのディープラーニングへの関心が高まり、ブラックボックスニューラルネットワークの不可解な性質に対する懸念が高まっている。
説明可能なAI(XAI)の研究は、これらのブラックボックスに多くの説明アルゴリズムをもたらした。
このようなポストホックな説明は人間に理解しやすい説明を与えるが、モデルに対する彼らの忠実さはよく理解されていない。
本稿では,特徴付加的説明者 (LIME, SHAP, SHAPR, MAPLE, PDP) が特徴付加的予測者を説明することができるか?
本稿では,モデルの加法構造から解析的に導出される基底真理上の説明器について評価する。
我々は, 記号表現, ニューラルネットワーク, 一般化加法モデルに適用したこれらの説明器の理解において, 何千もの実世界の課題に対するアプローチの有効性を実証する。
以上の結果から,すべての説明者が最終的に,特に意思決定プロセスが機能インタラクションに関わる場合に,機能の重要性を正しく認識できないことが示唆された。
関連論文リスト
- T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
T-ExplainerはTaylorの拡張に基づく新しい局所的な帰属説明器である。
局所的精度や一貫性などの望ましい特性があり、T-Explainerは複数の実行で安定している。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Behave-XAI: Deep Explainable Learning of Behavioral Representational Data [0.0]
行動マイニングのシナリオでは、説明可能なAIや人間の理解可能なAIを使用します。
まず、深層畳み込みニューラルネットワークアーキテクチャにおける行動マイニング問題を定式化する。
モデルが開発されると、ユーザーの前で説明が提示される。
論文 参考訳(メタデータ) (2022-12-30T18:08:48Z) - Disentangled Explanations of Neural Network Predictions by Finding Relevant Subspaces [14.70409833767752]
説明可能なAIは、ニューラルネットワークのような複雑なMLモデルのブラックボックスの性質を克服し、予測の説明を生成することを目的としている。
そこで本研究では,PCA や ICA に見られる原理を説明に拡張する2つの新しい分析法を提案する。
これらの新しい分析は、主成分分析 (PRCA) と解離関連部分空間分析 (DRSA) と呼ばれ、ばらつきや硬変の代わりに関連性を最大化する。
論文 参考訳(メタデータ) (2022-12-30T18:04:25Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。