論文の概要: Considerations When Learning Additive Explanations for Black-Box Models
- arxiv url: http://arxiv.org/abs/1801.08640v4
- Date: Tue, 1 Aug 2023 02:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 18:44:29.495577
- Title: Considerations When Learning Additive Explanations for Black-Box Models
- Title(参考訳): ブラックボックスモデルの付加的説明学習における考察
- Authors: Sarah Tan, Giles Hooker, Paul Koch, Albert Gordo, Rich Caruana
- Abstract要約: ブラックボックスモデルの予測関数における非付加的成分を,異なる方法で特徴付ける方法を示す。
蒸留された説明は一般的に最も正確な付加的な説明であるが、木の説明のような非付加的な説明はより正確である傾向にある。
- 参考スコア(独自算出の注目度): 16.732047048577638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many methods to explain black-box models, whether local or global, are
additive. In this paper, we study global additive explanations for non-additive
models, focusing on four explanation methods: partial dependence, Shapley
explanations adapted to a global setting, distilled additive explanations, and
gradient-based explanations. We show that different explanation methods
characterize non-additive components in a black-box model's prediction function
in different ways. We use the concepts of main and total effects to anchor
additive explanations, and quantitatively evaluate additive and non-additive
explanations. Even though distilled explanations are generally the most
accurate additive explanations, non-additive explanations such as tree
explanations that explicitly model non-additive components tend to be even more
accurate. Despite this, our user study showed that machine learning
practitioners were better able to leverage additive explanations for various
tasks. These considerations should be taken into account when considering which
explanation to trust and use to explain black-box models.
- Abstract(参考訳): ブラックボックスモデルを説明する多くの方法は、局所的でもグローバル的でも、加法的である。
本稿では,非加法モデルに対する大域的加法説明について検討し,部分的依存,大域的設定に適応したシャプリー説明,蒸留加法説明,勾配に基づく説明の4つの方法に着目した。
ブラックボックスモデルの予測関数における非付加的成分を,異なる方法で特徴付ける方法を示す。
主効果と総効果の概念を用いて加法の説明をアンカーし、加法と非加法の説明を定量的に評価する。
蒸留説明は一般に最も正確な加法説明であるが、非加法成分を明示的にモデル化する木説明のような非加法説明はより正確である傾向がある。
それにもかかわらず、機械学習の実践者は様々なタスクに付加的な説明をうまく活用できることを示した。
これらの考慮は、ブラックボックスモデルの説明にどの説明を信頼し、使用するかを考える際に考慮する必要がある。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Benchmarking and Survey of Explanation Methods for Black Box Models [9.747543620322956]
返された説明の種類に基づいて、説明方法の分類を提供します。
本稿では,最も最近広く使われている説明器を紹介し,説明の視覚的比較と定量的ベンチマークを示す。
論文 参考訳(メタデータ) (2021-02-25T18:50:29Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。