論文の概要: SHAP for additively modeled features in a boosted trees model
- arxiv url: http://arxiv.org/abs/2207.14490v1
- Date: Fri, 29 Jul 2022 05:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:28:08.435031
- Title: SHAP for additively modeled features in a boosted trees model
- Title(参考訳): 増木モデルにおける加法モデル特徴のためのSHAP
- Authors: Michael Mayer
- Abstract要約: これらの特徴を加法的にモデル化した樹木モデルの場合、SHAP依存プロットはその部分依存プロットと垂直シフトに対応することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: An important technique to explore a black-box machine learning (ML) model is
called SHAP (SHapley Additive exPlanation). SHAP values decompose predictions
into contributions of the features in a fair way. We will show that for a
boosted trees model with some or all features being additively modeled, the
SHAP dependence plot of such a feature corresponds to its partial dependence
plot up to a vertical shift. We illustrate the result with XGBoost.
- Abstract(参考訳): ブラックボックス機械学習(ML)モデルを探索する重要なテクニックは、SHAP(SHapley Additive exPlanation)と呼ばれる。
SHAPの値は、予測を公平に機能のコントリビューションに分解する。
いくつかの特徴を付加的にモデル化したブーストツリーモデルの場合、そのような特徴のシェープ依存プロットは、垂直シフトまでの部分依存プロットに対応していることを示す。
結果はXGBoostで説明します。
関連論文リスト
- Leveraging Model-based Trees as Interpretable Surrogate Models for Model
Distillation [3.5437916561263694]
代理モデルは、複雑で強力なブラックボックス機械学習モデルを振り返りに解釈する上で重要な役割を果たす。
本稿では,決定規則により特徴空間を解釈可能な領域に分割する代理モデルとしてモデルベースツリーを用いることに焦点を当てる。
4つのモデルベースツリーアルゴリズム(SLIM, GUIDE, MOB, CTree)を比較した。
論文 参考訳(メタデータ) (2023-10-04T19:06:52Z) - Conditional expectation network for SHAP [0.0]
ニューラルネットワークと他の回帰モデルの両方の条件付きバージョンを効率的に計算できる(代理的な)ニューラルネットワークアプローチを提供する。
この提案は、一般化線形モデル(GLM)に類似した複雑な回帰モデルにおいて、ドロップ1とアノバ分析を提供するのにも有用である。
論文 参考訳(メタデータ) (2023-07-20T07:35:15Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - On marginal feature attributions of tree-based models [0.11999555634662631]
辺縁的なシャプリー、オーウェンまたはバンジャフの値など、辺縁的な期待に基づく局所的な特徴属性を用いることができる。
パス依存(path-dependent)のTreeSHAPが特徴のランク付けを行うのと全く同じ関数を計算する2つの(統計的に類似した)決定木を提示する。
我々は、CataBoostモデルの余剰Shapley(およびBanzhafとOwen)値についてのみ、複雑さを改善し、内部モデルパラメータの観点からのみ、明示的な式を導出するために対称性を利用する。
論文 参考訳(メタデータ) (2023-02-16T17:18:03Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Improving Aspect-based Sentiment Analysis with Gated Graph Convolutional
Networks and Syntax-based Regulation [89.38054401427173]
Aspect-based Sentiment Analysis (ABSA) は、特定の側面に向けて文の感情極性を予測する。
依存関係ツリーは、ABSAの最先端のパフォーマンスを生成するために、ディープラーニングモデルに統合することができる。
本稿では,この2つの課題を克服するために,グラフに基づく新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T07:36:24Z) - Lottery Tickets in Linear Models: An Analysis of Iterative Magnitude
Pruning [52.823408186356225]
我々は宝くじの仮説 arXiv:1803.03635v5, Iterative magnitude pruning (IMP) を分析する。
まず、IMPがデータに最小の投影を持つ特徴を具現化する特徴の統計的構造に関する十分な条件を提示することから始める。
次に,スパース推定手法としてのIMPについて検討する。
論文 参考訳(メタデータ) (2020-07-16T10:33:13Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。