論文の概要: Unifying local and global model explanations by functional decomposition
of low dimensional structures
- arxiv url: http://arxiv.org/abs/2208.06151v1
- Date: Fri, 12 Aug 2022 07:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:12:18.933888
- Title: Unifying local and global model explanations by functional decomposition
of low dimensional structures
- Title(参考訳): 低次元構造の関数分解による局所的・大域的モデル説明の統一
- Authors: Munir Hiabu, Joseph T. Meyer and Marvin N. Wright
- Abstract要約: 回帰関数や分類関数のグローバルな説明を主成分と相互作用成分の和に分解して考える。
ここで、qは分解に存在する相互作用の最高位を表す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a global explanation of a regression or classification function
by decomposing it into the sum of main components and interaction components of
arbitrary order. When adding an identification constraint that is motivated by
a causal interpretation, we find q-interaction SHAP to be the unique solution
to that constraint. Here, q denotes the highest order of interaction present in
the decomposition. Our result provides a new perspective on SHAP values with
various practical and theoretical implications: If SHAP values are decomposed
into main and all interaction effects, they provide a global explanation with
causal interpretation. In principle, the decomposition can be applied to any
machine learning model. However, since the number of possible interactions
grows exponentially with the number of features, exact calculation is only
feasible for methods that fit low dimensional structures or ensembles of those.
We provide an algorithm and efficient implementation for gradient boosted trees
(xgboost and random planted forests that calculates this decomposition.
Conducted experiments suggest that our method provides meaningful explanations
and reveals interactions of higher orders. We also investigate further
potential of our new insights by utilizing the global explanation for
motivating a new measure of feature importance, and for reducing direct and
indirect bias by post-hoc component removal.
- Abstract(参考訳): 我々は、回帰関数や分類関数のグローバルな説明を、任意の順序の主成分と相互作用成分の和に分解することで考える。
因果解釈によって動機付けられた識別制約を加えると、q-相互作用 SHAP がその制約のユニークな解となる。
ここで、qは分解に存在する相互作用の最高位を表す。
SHAP値が主およびすべての相互作用効果に分解された場合、因果解釈による世界的説明を提供する。
原則として、分解は任意の機械学習モデルに適用できる。
しかしながら、可能な相互作用の数は特徴の数とともに指数関数的に増加するため、正確な計算は低次元構造やそれらのアンサンブルに適合する手法に対してのみ可能である。
この分解を計算するために,傾斜強化木(xgboostとランダム植林林)のアルゴリズムと効率的な実装を提供する。
実験により,本手法が意味のある説明を提供し,より高い順序の相互作用を明らかにすることが示唆された。
また,新たな特徴指標のモチベーションと,ポストホック成分除去による直接的・間接的偏見の低減にグローバルな説明を活用することで,新たな洞察のさらなる可能性についても検討する。
関連論文リスト
- Decomposing Interventional Causality into Synergistic, Redundant, and Unique Components [0.0]
我々は、介入因果効果を相乗的で冗長でユニークな構成要素に分解する新しい枠組みを導入する。
本研究では,システム内の変数間で因果力がどのように分散しているかを体系的に定量化する数学的アプローチを開発する。
論文 参考訳(メタデータ) (2025-01-20T12:34:51Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - Succinct Interaction-Aware Explanations [33.25637826682827]
SHAPは、個々の特徴の重要性を明らかにすることでブラックボックスモデルを説明する一般的なアプローチである。
一方、NSHAPは全ての機能のサブセットに付加的な重要性を報告している。
我々は、これらの2つの世界の長所を、機能を大幅に相互作用する部分に分割することで組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-02-08T11:04:11Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Measure Inducing Classification and Regression Trees for Functional Data [0.0]
機能的データ分析の文脈における分類と回帰問題に対する木に基づくアルゴリズムを提案する。
これは、制約付き凸最適化により重み付き汎函数 L2$ 空間を学習することで達成される。
論文 参考訳(メタデータ) (2020-10-30T18:49:53Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。