論文の概要: On Shapley Credit Allocation for Interpretability
- arxiv url: http://arxiv.org/abs/2012.05506v1
- Date: Thu, 10 Dec 2020 08:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 21:19:35.679386
- Title: On Shapley Credit Allocation for Interpretability
- Title(参考訳): 解釈可能性に対するシャプリークレジット割当について
- Authors: Debraj Basu
- Abstract要約: 学習モデルの判断を解釈する際に適切な質問を行うことの重要性を強調する。
本稿では,Shapley symmetrizationの特徴関数として,解釈の異なる性質と異なる尺度を織り込むことによって特徴関連性を定量化する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We emphasize the importance of asking the right question when interpreting
the decisions of a learning model. We discuss a natural extension of the
theoretical machinery from Janzing et. al. 2020, which answers the question
"Why did my model predict a person has cancer?" for answering a more involved
question, "What caused my model to predict a person has cancer?" While the
former quantifies the direct effects of variables on the model, the latter also
accounts for indirect effects, thereby providing meaningful insights wherever
human beings can reason in terms of cause and effect. We propose three broad
categories for interpretations: observational, model-specific and causal each
of which are significant in their own right. Furthermore, this paper quantifies
feature relevance by weaving different natures of interpretations together with
different measures as characteristic functions for Shapley symmetrization.
Besides the widely used expected value of the model, we also discuss measures
of statistical uncertainty and dispersion as informative candidates, and their
merits in generating explanations for each data point, some of which are used
in this context for the first time. These measures are not only useful for
studying the influence of variables on the model output, but also on the
predictive performance of the model, and for that we propose relevant
characteristic functions that are also used for the first time.
- Abstract(参考訳): 学習モデルの判断を解釈する際に適切な質問を行うことの重要性を強調する。
我々はjanzing et から理論機械の自然な拡張について論じる。
アル
なぜ私のモデルは、ある人が癌を患っていると予測したのか?
より関係のある質問に答えるために、"なぜ私のモデルは癌を予測したのか?
前者はモデルに対する変数の直接的な影響を定量化するが、後者は間接的な効果も考慮し、人間が原因や効果の観点から推論できる意味のある洞察を与える。
我々は,観察的,モデル特異的,因果的という3つの解釈の広いカテゴリを提案する。
さらに,本論文では,解釈の性質を異なる尺度で織り込むことによって特徴の関連性を定量化する。
また,このモデルの予測値の他に,情報的候補としての統計的不確実性と分散の尺度や,各データポイントについての説明を生成する上でのメリットについても論じる。
これらの尺度は, モデル出力に対する変数の影響を調べるだけでなく, モデルの予測性能にも有効である。
関連論文リスト
- Linking Model Intervention to Causal Interpretation in Model Explanation [34.21877996496178]
直感的なモデル介入効果が因果解釈を持つ場合の条件について検討する。
この研究はモデルの介入効果とモデルの因果解釈を結びつける。
半合成データセットの実験は、定理を検証し、モデルの解釈にモデル介入効果を使用する可能性を示す。
論文 参考訳(メタデータ) (2024-10-21T05:16:59Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Explanatory causal effects for model agnostic explanations [27.129579550130423]
機械学習モデルを用いて、特定のインスタンスの予測に対する特徴の寄与を推定する問題について検討する。
課題は、既存の因果効果のほとんどは、既知の因果グラフなしではデータから推定できないことである。
仮説的理想実験に基づいて説明的因果効果を定義する。
論文 参考訳(メタデータ) (2022-06-23T08:25:31Z) - Model Explanations via the Axiomatic Causal Lens [9.915489218010952]
そこで本研究では,すべての原因の集合を特徴重みに集約する3つの説明尺度を提案する。
最初の尺度は、チョックラーとハルパーンの因果責任の概念の自然な適応である。
我々は、ブラックボックスモデル説明のためのShapley-ShubikとBanzhafの指標を計算するための新しい手法を導出するために、我々のアプローチを拡張した。
論文 参考訳(メタデータ) (2021-09-08T19:33:52Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Marginal Contribution Feature Importance -- an Axiomatic Approach for
The Natural Case [13.94406695921022]
本研究では,自然シナリオにおける特徴重要関数から期待される特性を表す公理の集合を開発する。
理論的および経験的特性からこの関数を解析し、他の特徴重要度と比較する。
論文 参考訳(メタデータ) (2020-10-15T17:41:42Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Nonparametric Feature Impact and Importance [0.6123324869194193]
データ上で直接動作する部分依存曲線から導かれる特徴的影響と重要性の数学的定義を与える。
品質を評価するために、これらの定義によってランク付けされた特徴は、既存の特徴選択技術と競合することを示す。
論文 参考訳(メタデータ) (2020-06-08T17:07:35Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。