論文の概要: Efficient SAGE Estimation via Causal Structure Learning
- arxiv url: http://arxiv.org/abs/2304.03113v1
- Date: Thu, 6 Apr 2023 14:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 14:02:09.269342
- Title: Efficient SAGE Estimation via Causal Structure Learning
- Title(参考訳): 因果構造学習による効率的なSAGE推定
- Authors: Christoph Luther, Gunnar K\"onig, Moritz Grosse-Wentrup
- Abstract要約: $d$-SAGEはShapley Additive Global Importance(SAGE)値への近似を高速化するメソッドである。
$d$-SAGEは、機能とモデルターゲットの間の条件の不依存性は、余剰なコントリビューションがゼロであることを暗示する、という観察によって動機付けられている。
我々は$d$-SAGEがSAGE値の効率的かつ正確な推定を可能にすることを示した。
- 参考スコア(独自算出の注目度): 0.7243632426715939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Shapley Additive Global Importance (SAGE) value is a theoretically
appealing interpretability method that fairly attributes global importance to a
model's features. However, its exact calculation requires the computation of
the feature's surplus performance contributions over an exponential number of
feature sets. This is computationally expensive, particularly because
estimating the surplus contributions requires sampling from conditional
distributions. Thus, SAGE approximation algorithms only take a fraction of the
feature sets into account. We propose $d$-SAGE, a method that accelerates SAGE
approximation. $d$-SAGE is motivated by the observation that conditional
independencies (CIs) between a feature and the model target imply zero surplus
contributions, such that their computation can be skipped. To identify CIs, we
leverage causal structure learning (CSL) to infer a graph that encodes
(conditional) independencies in the data as $d$-separations. This is
computationally more efficient because the expense of the one-time graph
inference and the $d$-separation queries is negligible compared to the expense
of surplus contribution evaluations. Empirically we demonstrate that $d$-SAGE
enables the efficient and accurate estimation of SAGE values.
- Abstract(参考訳): Shapley Additive Global Importance (SAGE) は理論上魅力的な解釈可能性の手法であり、モデルの特徴にグローバルな重要性をかなり考慮している。
しかし、その正確な計算は、指数関数的な数の特徴集合に対する余剰な性能貢献の計算を必要とする。
これは計算量的に高価であり、特に余剰寄与の推定には条件分布からのサンプリングが必要である。
したがって、SAGE近似アルゴリズムは機能セットのごく一部しか考慮しない。
SAGE近似を高速化する手法である$d$-SAGEを提案する。
$d$-SAGEは、ある特徴とモデルターゲットの間の条件不依存(CI)が余剰な貢献を含まないことを示唆し、それらの計算をスキップできるという観察によって動機付けられている。
CIを識別するために、因果構造学習(CSL)を活用して、データの(条件付き)非依存性を$d$-セパレーションとしてエンコードするグラフを推論する。
これは1回グラフ推論と$d$-セパレーションクエリのコストが余剰貢献評価のコストよりも無視できるため、計算上より効率的である。
実証的に、$d$-SAGEはSAGE値の効率的かつ正確な推定を可能にします。
関連論文リスト
- A hierarchical decomposition for explaining ML performance discrepancies [6.603088808962966]
機械学習アルゴリズムは、ドメイン間でパフォーマンスが異なることが多い。$textitwhy$とそのパフォーマンスを理解することは、パフォーマンスギャップを埋める上で最も効果的な介入の種類を決定するために不可欠である。
本稿では,機械学習アルゴリズムの性能が,因果的知識を必要とせず,ドメイン間で異なる理由を説明するために,集約的および詳細な分解を提供する非パラメトリック階層型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T03:41:05Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - DU-Shapley: A Shapley Value Proxy for Efficient Dataset Valuation [23.646508094051768]
我々は、データセットのバリュエーションの問題、すなわち、インクリメンタルゲインを定量化する問題を考える。
Shapleyの値は、その正式な公理的正当化のためにデータセットのバリュエーションを実行する自然なツールである。
本稿では,離散一様分布下での予測として表現される離散一様シャプリーと呼ばれる新しい近似を提案する。
論文 参考訳(メタデータ) (2023-06-03T10:22:50Z) - A $k$-additive Choquet integral-based approach to approximate the SHAP
values for local interpretability in machine learning [8.637110868126546]
本稿では,Shapley値に基づく機械学習モデルに対する解釈可能性の提供を目的とする。
Kernel SHAPと呼ばれるSHAPベースの手法は、計算労力を少なくしてそのような値を近似する効率的な戦略を採用する。
得られた結果から,提案手法ではSHAP値に近似するために属性の連立性に関する計算がより少ないことが確認された。
論文 参考訳(メタデータ) (2022-11-03T22:34:50Z) - Efficient Non-Local Contrastive Attention for Image Super-Resolution [48.093500219958834]
非局所的注意(NLA)は、自然画像の内在的特徴相関を利用して、単一画像超解法(SISR)に大きな改善をもたらす。
本稿では,長期視覚モデリングを行い,より関連性の高い非局所的特徴を活用するための,効率的な非局所的コントラスト注意(ENLCA)を提案する。
論文 参考訳(メタデータ) (2022-01-11T05:59:09Z) - Multi-task Learning of Order-Consistent Causal Graphs [59.9575145128345]
我々は、$K関連ガウス非巡回グラフ(DAG)の発見問題を考える。
マルチタスク学習環境下では, 線形構造方程式モデルを学習するためのMLE ($l_1/l$-regularized maximum chance estimator) を提案する。
理論的には、関係するタスクにまたがるデータを活用することで、因果順序を復元する際のサンプルの複雑さをより高めることができることを示す。
論文 参考訳(メタデータ) (2021-11-03T22:10:18Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z) - Interpretable feature subset selection: A Shapley value based approach [1.511944009967492]
プレイヤーとしての特徴とヒンジロスに基づく特徴関数を持つ協調ゲームである分類ゲームの概念を導入する。
我々の主な貢献は、任意のデータセットに対して、SVEA値のしきい値0がラベル予測のための共同相互作用が重要である特徴サブセットを特定することを示すことである($star$)。
論文 参考訳(メタデータ) (2020-01-12T16:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。