論文の概要: Fast TreeSHAP: Accelerating SHAP Value Computation for Trees
- arxiv url: http://arxiv.org/abs/2109.09847v1
- Date: Mon, 20 Sep 2021 21:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 02:07:01.157168
- Title: Fast TreeSHAP: Accelerating SHAP Value Computation for Trees
- Title(参考訳): fast treeshap: ツリーのシェープ値計算の高速化
- Authors: Jilei Yang
- Abstract要約: 本稿では,大規模なデータセットに対する TreeShap の計算効率を向上させるために,Fast TreeSHAP v1 と v2 を提案する。
Fast TreeShap v1はTreeShapよりも1.5倍高速で、メモリコストは変わらない。
Fast TreeShap v2はTreeShapよりも2.5倍高速で、メモリ使用量もわずかに高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SHAP (SHapley Additive exPlanation) values are one of the leading tools for
interpreting machine learning models, with strong theoretical guarantees
(consistency, local accuracy) and a wide availability of implementations and
use cases. Even though computing SHAP values takes exponential time in general,
TreeSHAP takes polynomial time on tree-based models. While the speedup is
significant, TreeSHAP can still dominate the computation time of industry-level
machine learning solutions on datasets with millions or more entries, causing
delays in post-hoc model diagnosis and interpretation service. In this paper we
present two new algorithms, Fast TreeSHAP v1 and v2, designed to improve the
computational efficiency of TreeSHAP for large datasets. We empirically find
that Fast TreeSHAP v1 is 1.5x faster than TreeSHAP while keeping the memory
cost unchanged. Similarly, Fast TreeSHAP v2 is 2.5x faster than TreeSHAP, at
the cost of a slightly higher memory usage, thanks to the pre-computation of
expensive TreeSHAP steps. We also show that Fast TreeSHAP v2 is well-suited for
multi-time model interpretations, resulting in as high as 3x faster explanation
of newly incoming samples.
- Abstract(参考訳): SHAP(SHapley Additive exPlanation)値は、強力な理論的保証(一貫性、局所精度)と実装とユースケースの広範な可用性を備えた、機械学習モデルを解釈するための主要なツールの1つである。
SHAPの計算には通常指数時間を要するが、TreeSHAPは木モデル上で多項式時間を取る。
スピードアップは重要であるが、TreeSHAPは数百万以上のエントリを持つデータセット上の業界レベルの機械学習ソリューションの計算時間を支配し、ポストホックモデル診断と解釈サービスの遅延を引き起こす。
本稿では,大規模データセットに対するFast TreeSHAP v1とFast TreeSHAP v2という2つの新しいアルゴリズムを提案する。
経験的に、fast treeshap v1はtreeshapより1.5倍高速であるが、メモリコストは変わらない。
同様に、Fast TreeSHAP v2はTreeSHAPよりも2.5倍高速で、高価なTreeSHAPステップの事前計算のおかげで、メモリ使用量が少し高くなる。
また、fast treeshap v2はマルチタイムモデル解釈に適しており、新たなサンプルを最大3倍高速に説明できることを示した。
関連論文リスト
- Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions
for Tree Ensembles [6.664930499708017]
シェープリー値(Shapley value, SV)は、予測の付加的特徴属性を定量化するための説明可能な人工知能(XAI)研究における概念である。
TreeSHAP-IQは木モデル予測のための任意の順序加法シャプリー相互作用を効率的に計算する手法である。
論文 参考訳(メタデータ) (2024-01-22T16:08:41Z) - Compact Neural Graphics Primitives with Learned Hash Probing [100.07267906666293]
学習したプローブを持つハッシュテーブルにはデメリットはなく,その結果,サイズと速度の組合せが好適であることを示す。
推論は、トレーニングが1.2-2.6倍遅い間、同じ品質で未処理のハッシュテーブルよりも高速である。
論文 参考訳(メタデータ) (2023-12-28T18:58:45Z) - Understanding Interventional TreeSHAP : How and Why it Works [0.0]
我々は、なぜInterventional TreeSHAPが機能するのかを正式に証明する。
特に,Interventional TreeSHAPの証明はShapley-Taylorインデックスに容易に適用できる。
論文 参考訳(メタデータ) (2022-09-29T22:38:56Z) - Linear TreeShap [16.246232737115218]
決定木は解釈容易性から有名である。
精度を向上させるには、深い木や木々のアンサンブルを育てなければならない。
本稿では,より効率的かつ簡単なアルゴリズムであるリニアツリーサップを提案する。
論文 参考訳(メタデータ) (2022-09-16T23:17:15Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Shapley-NAS: Discovering Operation Contribution for Neural Architecture
Search [96.20505710087392]
ニューラルアーキテクチャ探索のための演算寄与度(Shapley-NAS)を評価するためのShapley値に基づく手法を提案する。
提案手法は,光探索コストに比例して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T14:41:49Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - GPUTreeShap: Massively Parallel Exact Calculation of SHAP Scores for
Tree Ensembles [0.8057006406834467]
本稿では,グラフィック処理ユニット上での大規模並列計算に適したツリーサップアルゴリズムを提案する。
我々は,最先端のマルチコアCPU実装を用いて,SHAP値の最大19倍,SHAP値の最大340倍の高速化を実現する。
論文 参考訳(メタデータ) (2020-10-27T00:55:07Z) - Evaluating Tree Explanation Methods for Anomaly Reasoning: A Case Study
of SHAP TreeExplainer and TreeInterpreter [6.718611456024702]
木に基づくモデルを記述するための2つの手法-木インタープリタ(TI)とシャプレー付加例木説明器(SHAP-TE)-の性能について検討する。
SHAP-TEはTI上での整合性を保証するが,計算量の増加を犠牲にすることで,このケーススタディでは必ずしも整合性は向上しないことがわかった。
論文 参考訳(メタデータ) (2020-10-13T23:18:26Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - RadixSpline: A Single-Pass Learned Index [84.84747738666263]
RadixSpline(RS)は、データに1回のパスで構築できる学習インデックスです。
RSは2つのパラメータしか持たないにもかかわらず、すべてのデータセットで競合的な結果を達成する。
論文 参考訳(メタデータ) (2020-04-30T01:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。