論文の概要: Unifying local and global model explanations by functional decomposition
of low dimensional structures
- arxiv url: http://arxiv.org/abs/2208.06151v1
- Date: Fri, 12 Aug 2022 07:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:12:18.933888
- Title: Unifying local and global model explanations by functional decomposition
of low dimensional structures
- Title(参考訳): 低次元構造の関数分解による局所的・大域的モデル説明の統一
- Authors: Munir Hiabu, Joseph T. Meyer and Marvin N. Wright
- Abstract要約: 回帰関数や分類関数のグローバルな説明を主成分と相互作用成分の和に分解して考える。
ここで、qは分解に存在する相互作用の最高位を表す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a global explanation of a regression or classification function
by decomposing it into the sum of main components and interaction components of
arbitrary order. When adding an identification constraint that is motivated by
a causal interpretation, we find q-interaction SHAP to be the unique solution
to that constraint. Here, q denotes the highest order of interaction present in
the decomposition. Our result provides a new perspective on SHAP values with
various practical and theoretical implications: If SHAP values are decomposed
into main and all interaction effects, they provide a global explanation with
causal interpretation. In principle, the decomposition can be applied to any
machine learning model. However, since the number of possible interactions
grows exponentially with the number of features, exact calculation is only
feasible for methods that fit low dimensional structures or ensembles of those.
We provide an algorithm and efficient implementation for gradient boosted trees
(xgboost and random planted forests that calculates this decomposition.
Conducted experiments suggest that our method provides meaningful explanations
and reveals interactions of higher orders. We also investigate further
potential of our new insights by utilizing the global explanation for
motivating a new measure of feature importance, and for reducing direct and
indirect bias by post-hoc component removal.
- Abstract(参考訳): 我々は、回帰関数や分類関数のグローバルな説明を、任意の順序の主成分と相互作用成分の和に分解することで考える。
因果解釈によって動機付けられた識別制約を加えると、q-相互作用 SHAP がその制約のユニークな解となる。
ここで、qは分解に存在する相互作用の最高位を表す。
SHAP値が主およびすべての相互作用効果に分解された場合、因果解釈による世界的説明を提供する。
原則として、分解は任意の機械学習モデルに適用できる。
しかしながら、可能な相互作用の数は特徴の数とともに指数関数的に増加するため、正確な計算は低次元構造やそれらのアンサンブルに適合する手法に対してのみ可能である。
この分解を計算するために,傾斜強化木(xgboostとランダム植林林)のアルゴリズムと効率的な実装を提供する。
実験により,本手法が意味のある説明を提供し,より高い順序の相互作用を明らかにすることが示唆された。
また,新たな特徴指標のモチベーションと,ポストホック成分除去による直接的・間接的偏見の低減にグローバルな説明を活用することで,新たな洞察のさらなる可能性についても検討する。
関連論文リスト
- A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Data-driven advice for interpreting local and global model predictions
in bioinformatics problems [17.685881417954782]
条件付き特徴コントリビューション(CFC)は、予測のテキストローカルでケースバイケースの説明を提供する。
両手法で計算した説明を, 公開されている164の分類問題に対して比較した。
ランダム林では,地域とグローバルのSHAP値とCFCスコアの相関関係が極めて高い。
論文 参考訳(メタデータ) (2021-08-13T12:41:39Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Measure Inducing Classification and Regression Trees for Functional Data [0.0]
機能的データ分析の文脈における分類と回帰問題に対する木に基づくアルゴリズムを提案する。
これは、制約付き凸最適化により重み付き汎函数 L2$ 空間を学習することで達成される。
論文 参考訳(メタデータ) (2020-10-30T18:49:53Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。