論文の概要: Generalized SHAP: Generating multiple types of explanations in machine
learning
- arxiv url: http://arxiv.org/abs/2006.07155v2
- Date: Mon, 15 Jun 2020 12:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:49:22.743047
- Title: Generalized SHAP: Generating multiple types of explanations in machine
learning
- Title(参考訳): Generalized SHAP: 機械学習における多種多様な説明の生成
- Authors: Dillon Bowen, Lyle Ungar
- Abstract要約: 一般的な数学的によく理解された説明手法であるShapley Additive Explanationsを一般化する。
我々の新しい手法は、多くの追加的な説明を生み出す。
我々はこれらのタイプの説明を正式に定義し、実データにおけるそれらの実践的利用を例証する。
- 参考スコア(独自算出の注目度): 11.8635913527964
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many important questions about a model cannot be answered just by explaining
how much each feature contributes to its output. To answer a broader set of
questions, we generalize a popular, mathematically well-grounded explanation
technique, Shapley Additive Explanations (SHAP). Our new method - Generalized
Shapley Additive Explanations (G-SHAP) - produces many additional types of
explanations, including: 1) General classification explanations; Why is this
sample more likely to belong to one class rather than another? 2) Intergroup
differences; Why do our model's predictions differ between groups of
observations? 3) Model failure; Why does our model perform poorly on a given
sample? We formally define these types of explanations and illustrate their
practical use on real data.
- Abstract(参考訳): モデルに関する重要な質問の多くは、各機能がアウトプットにどの程度貢献するかを説明するだけでは答えられません。
より広範な質問に答えるために、一般的な数学的によく理解された説明手法、Shapley Additive Explanations (SHAP)を一般化する。
我々の新しい手法 - Generalized Shapley Additive Explanations (G-SHAP) - は、以下を含む多くの追加的な説明を生成する。
1) 一般的な分類の説明; なぜこのサンプルは他のクラスよりもあるクラスに属しやすいのか?
2) 群間差; なぜ我々のモデルの予測は観測群によって異なるのか?
3) モデル障害: なぜ私たちのモデルは与えられたサンプルでパフォーマンスが悪いのか?
このような説明を形式的に定義し,実データ上での実用性を説明する。
関連論文リスト
- Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value [3.0655581300025996]
共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T12:20:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - On Relating 'Why?' and 'Why Not?' Explanations [28.87208020322193]
機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
最近の研究は「なぜそうでないのか」という説明を調査している。
質問だ
本稿では,「なぜ」の厳密な関係を確立する。
と「なぜないのですか?
説明だ
論文 参考訳(メタデータ) (2020-12-21T01:07:13Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - On Counterfactual Explanations under Predictive Multiplicity [14.37676876556672]
対実的な説明は通常、入力に対する最小の変更を識別して、固定されたモデルによる予測を変更することによって得られる。
最近の研究は古い洞察を復活させ、一般的に使用される関心の尺度に関して予測問題に対する優れた解決策が1つ存在しないことがしばしばある。
論文 参考訳(メタデータ) (2020-06-23T16:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。