論文の概要: The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets
- arxiv url: http://arxiv.org/abs/2009.11023v2
- Date: Mon, 14 Dec 2020 13:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:02:32.630565
- Title: The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets
- Title(参考訳): 特徴に基づく説明のストラグル: 共有値と最小値のサブセット
- Authors: Oana-Maria Camburu, Eleonora Giunchiglia, Jakob Foerster, Thomas
Lukasiewicz, Phil Blunsom
- Abstract要約: 機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
- 参考スコア(独自算出の注目度): 61.66584140190247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For neural models to garner widespread public trust and ensure fairness, we
must have human-intelligible explanations for their predictions. Recently, an
increasing number of works focus on explaining the predictions of neural models
in terms of the relevance of the input features. In this work, we show that
feature-based explanations pose problems even for explaining trivial models. We
show that, in certain cases, there exist at least two ground-truth
feature-based explanations, and that, sometimes, neither of them is enough to
provide a complete view of the decision-making process of the model. Moreover,
we show that two popular classes of explainers, Shapley explainers and minimal
sufficient subsets explainers, target fundamentally different types of
ground-truth explanations, despite the apparently implicit assumption that
explainers should look for one specific feature-based explanation. These
findings bring an additional dimension to consider in both developing and
choosing explainers.
- Abstract(参考訳): 神経モデルが公衆の信頼を広め、公平性を確保するためには、その予測について人間の知性のある説明をしなければならない。
近年、入力特徴の関連性の観点から、ニューラルモデルの予測を説明することに注力する研究が増えている。
本研究では,機能に基づく説明が,自明なモデルでも問題を引き起こすことを示す。
いくつかのケースでは、少なくとも2つの基礎的な特徴に基づく説明が存在し、それらのどちらも、モデルの意思決定プロセスの完全なビューを提供するには不十分であることを示す。
さらに,2つの一般的な説明文のクラスであるシェープリー説明文と十分最小限の部分集合の説明文は,特徴に基づく説明文を1つ探すべきという暗黙の仮定にもかかわらず,基本的に異なる基底的説明文をターゲットとしていることを示す。
これらの発見は、説明者の発展と選択の両方で考慮すべき追加の次元をもたらす。
関連論文リスト
- Sufficient and Necessary Explanations (and What Lies in Between) [6.9035001722324685]
本稿では,汎用機械学習モデルにおける特徴重要度に関する2つの正確な概念について考察する。
本稿では,必要十分軸に沿って連続体を探索することによって,これらの制限を回避することの重要性の統一概念を提案する。
論文 参考訳(メタデータ) (2024-09-30T15:50:57Z) - Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation [0.9558392439655016]
機械学習(ML)モデルを解釈する能力はますます不可欠になりつつある。
近年の研究では、様々なモデルの意思決定を説明する計算複雑性を研究することにより、解釈可能性について正式に評価することが可能であることが示されている。
論文 参考訳(メタデータ) (2024-08-07T17:20:52Z) - Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - ExSum: From Local Explanations to Model Understanding [6.23934576145261]
ブラックボックスモデルの動作メカニズムを理解するために,解釈可能性法を開発した。
この目標をフルフィルするには、これらのメソッドによって生成された説明が正しいことと、人々が容易に確実に理解できることの両方が必要である。
本稿では,モデル理解の定量化のための数学的枠組みである説明要約(ExSum)を紹介する。
論文 参考訳(メタデータ) (2022-04-30T02:07:20Z) - Do not explain without context: addressing the blind spot of model
explanations [2.280298858971133]
本稿では,機械学習モデルの監視と監査においてしばしば見落とされがちな盲点について述べる。
モデル説明の多くは参照データ分布の選択に直接的または間接的に依存する。
分布の小さな変化が、傾向の変化や、注意深い結論などの説明に劇的な変化をもたらす例を示す。
論文 参考訳(メタデータ) (2021-05-28T12:48:40Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。