論文の概要: Explaining a Series of Models by Propagating Local Feature Attributions
- arxiv url: http://arxiv.org/abs/2105.00108v1
- Date: Fri, 30 Apr 2021 22:20:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 05:19:35.879995
- Title: Explaining a Series of Models by Propagating Local Feature Attributions
- Title(参考訳): 局所特徴属性の伝播による一連のモデルの説明
- Authors: Hugh Chen, Scott M. Lundberg, Su-In Lee
- Abstract要約: 複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
- 参考スコア(独自算出の注目度): 9.66840768820136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pipelines involving a series of several machine learning models (e.g.,
stacked generalization ensembles, neural network feature extractors) improve
performance in many domains but are difficult to understand. To improve their
transparency, we introduce a framework to propagate local feature attributions
through complex pipelines of models based on a connection to the Shapley value.
Our framework enables us to (1) draw higher-level conclusions based on groups
of gene expression features for Alzheimer's and breast cancer histologic grade
prediction, (2) draw important insights about the errors a mortality prediction
model makes by explaining a loss that is a non-linear transformation of the
model's output, (3) explain pipelines of deep feature extractors fed into a
tree model for MNIST digit classification, and (4) interpret important consumer
scores and raw features in a stacked generalization setting to predict risk for
home equity line of credit applications. Importantly, in the consumer scoring
example, DeepSHAP is the only feature attribution technique we are aware of
that allows independent entities (e.g., lending institutions, credit bureaus)
to compute attributions for the original features without having to share their
proprietary models. Quantitatively comparing our framework to model-agnostic
approaches, we show that our approach is an order of magnitude faster while
providing equally salient explanations. In addition, we describe how to
incorporate an empirical baseline distribution, which allows us to (1)
demonstrate the bias of previous approaches that use a single baseline sample,
and (2) present a straightforward methodology for choosing meaningful baseline
distributions.
- Abstract(参考訳): 複数の機械学習モデル(例えば、スタック一般化アンサンブル、ニューラルネットワーク特徴抽出器)を含むパイプラインは、多くのドメインのパフォーマンスを改善するが、理解しにくい。
透明性を向上させるために,shapley値との接続に基づいて,モデルの複雑なパイプラインを通じて局所的な機能帰属を伝達するフレームワークを導入する。
Our framework enables us to (1) draw higher-level conclusions based on groups of gene expression features for Alzheimer's and breast cancer histologic grade prediction, (2) draw important insights about the errors a mortality prediction model makes by explaining a loss that is a non-linear transformation of the model's output, (3) explain pipelines of deep feature extractors fed into a tree model for MNIST digit classification, and (4) interpret important consumer scores and raw features in a stacked generalization setting to predict risk for home equity line of credit applications.
重要な点として、DeepSHAPは、私たちが認識している唯一の特徴属性技術であり、独立したエンティティ(例えば、融資機関、信用局)が独自のモデルを共有することなく、元の特徴に対する属性を計算することができる。
フレームワークとモデルに依存しないアプローチを定量的に比較すると、我々のアプローチは桁違いに高速であり、公平な説明を提供する。
さらに,実験的なベースライン分布を組み込むことにより,(1)単一ベースラインサンプルを用いた従来のアプローチのバイアスを実証し,(2)意味のあるベースライン分布を選択するための簡単な手法を提案する。
関連論文リスト
- Probabilistic Forecasting with Coherent Aggregation [41.861302072687835]
本稿では, 因子モデル構造を利用して構築によるコヒーレントな予測を生成する新しいモデルを提案する。
我々のモデルは3つの階層的予測データセットに対して11.8-41.4%の価格で大幅な改善を達成している。
論文 参考訳(メタデータ) (2023-07-19T07:31:37Z) - Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction [0.8543936047647136]
本稿では,特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
我々は、グローバルな理解のために多くのローカルな説明を組み合わせてSwarmプロットを設計するための青写真を提供する。
論文 参考訳(メタデータ) (2023-04-14T13:03:33Z) - Rethinking Log Odds: Linear Probability Modelling and Expert Advice in
Interpretable Machine Learning [8.831954614241234]
線形化付加モデル(LAM)とSubscaleHedgeの2つの拡張を含む、解釈可能な機械学習モデルのファミリーを紹介する。
LAMは、GAM(General Additive Models)におけるユビキタスなロジスティックリンク関数を置き換えるものであり、SubscaleHedgeはサブスケールと呼ばれる機能のサブセットでトレーニングされたベースモデルを組み合わせるためのエキスパートアドバイスアルゴリズムである。
論文 参考訳(メタデータ) (2022-11-11T17:21:57Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。