論文の概要: Understanding Interventional TreeSHAP : How and Why it Works
- arxiv url: http://arxiv.org/abs/2209.15123v1
- Date: Thu, 29 Sep 2022 22:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:58:40.313635
- Title: Understanding Interventional TreeSHAP : How and Why it Works
- Title(参考訳): インターベンショナルツリーの理解 : その仕組みと理由
- Authors: Gabriel Laberge and Yann Pequignot
- Abstract要約: 我々は、なぜInterventional TreeSHAPが機能するのかを正式に証明する。
特に,Interventional TreeSHAPの証明はShapley-Taylorインデックスに容易に適用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values are ubiquitous in interpretable Machine Learning due to their
strong theoretical background and efficient implementation in the SHAP library.
Computing these values used to induce an exponential cost with respect to the
number of input features of an opaque model. Now, with efficient
implementations such as Interventional TreeSHAP, this exponential burden is
alleviated assuming one is explaining ensembles of decision trees. Although
Interventional TreeSHAP has risen in popularity, it still lacks a formal proof
of how/why it works. We provide such proof with the aim of not only increasing
the transparency of the algorithm but also to encourage further development of
these ideas. Notably, our proof for Interventional TreeSHAP is easily adapted
to Shapley-Taylor indices.
- Abstract(参考訳): 共有値はSHAPライブラリの強力な理論的背景と効率的な実装のため、解釈可能な機械学習ではユビキタスである。
これらの値を計算することで、不透明モデルの入力特徴の数に対して指数的なコストが生じる。
現在、Interventional TreeSHAPのような効率的な実装では、決定木の集合を説明するものとして、この指数的負担が軽減されている。
Interventional TreeSHAPの人気は高まっているが、なぜ機能するのかという公式な証明はいまだに欠けている。
このような証明は,アルゴリズムの透明性を高めるだけでなく,これらのアイデアのさらなる発展を促すことを目的としている。
特に,Interventional TreeSHAPの証明はShapley-Taylorインデックスに容易に適用できる。
関連論文リスト
- Shapley Pruning for Neural Network Compression [63.60286036508473]
この研究はShapley値近似を示し、ニューラルネットワーク圧縮の費用対効果の観点から比較分析を行う。
提案した規範的ランキングとその近似は、最先端のネットワーク圧縮を得る実用的な結果を示す。
論文 参考訳(メタデータ) (2024-07-19T11:42:54Z) - Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions
for Tree Ensembles [6.664930499708017]
シェープリー値(Shapley value, SV)は、予測の付加的特徴属性を定量化するための説明可能な人工知能(XAI)研究における概念である。
TreeSHAP-IQは木モデル予測のための任意の順序加法シャプリー相互作用を効率的に計算する手法である。
論文 参考訳(メタデータ) (2024-01-22T16:08:41Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - On marginal feature attributions of tree-based models [0.11184789007828977]
辺縁的なシャプリー、オーウェンまたはバンジャフの値など、辺縁的な期待に基づく局所的な特徴属性を用いることができる。
パス依存(path-dependent)のTreeSHAPが特徴のランク付けを行うのと全く同じ関数を計算する2つの(統計的に類似した)決定木を提示する。
我々は、CataBoostモデルの余剰Shapley(およびBanzhafとOwen)値についてのみ、複雑さを改善し、内部モデルパラメータの観点からのみ、明示的な式を導出するために対称性を利用する。
論文 参考訳(メタデータ) (2023-02-16T17:18:03Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Accurate Shapley Values for explaining tree-based models [0.0]
木構造を効率的に利用し,最先端の手法よりも精度の高い2つのシェープ値推定器を導入する。
これらのメソッドはPythonパッケージとして利用できる。
論文 参考訳(メタデータ) (2021-06-07T17:35:54Z) - SHAFF: Fast and consistent SHApley eFfect estimates via random Forests [0.0]
入力変数が依存している場合でも、高速で正確なシェープ効果推定であるSHAFFを導入する。
C++とRにおけるSHAFFの実装はオンラインで入手できる。
論文 参考訳(メタデータ) (2021-05-25T07:48:07Z) - Evaluating Tree Explanation Methods for Anomaly Reasoning: A Case Study
of SHAP TreeExplainer and TreeInterpreter [6.718611456024702]
木に基づくモデルを記述するための2つの手法-木インタープリタ(TI)とシャプレー付加例木説明器(SHAP-TE)-の性能について検討する。
SHAP-TEはTI上での整合性を保証するが,計算量の増加を犠牲にすることで,このケーススタディでは必ずしも整合性は向上しないことがわかった。
論文 参考訳(メタデータ) (2020-10-13T23:18:26Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。