論文の概要: The Shapley Value of coalition of variables provides better explanations
- arxiv url: http://arxiv.org/abs/2103.13342v1
- Date: Wed, 24 Mar 2021 17:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 15:04:45.390638
- Title: The Shapley Value of coalition of variables provides better explanations
- Title(参考訳): 変数の連立の共有価値はより良い説明を提供する
- Authors: Salim Amoukou, Nicolas J-B. Brunel, Tangui Saluan
- Abstract要約: SV(Shapley Values)がいまだに理解されていないことを示す。
ダミー変数のSVを和らげるという一般的な実践は誤りであることを示す。
重要な変数の正しい計算と推論を提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Shapley Values (SV) are one of the gold standard for interpreting
machine learning models, we show that they are still poorly understood, in
particular in the presence of categorical variables or of variables of low
importance. For instance, we show that the popular practice that consists in
summing the SV of dummy variables is false as it provides wrong estimates of
all the SV in the model and implies spurious interpretations. Based on the
identification of null and active coalitions, and a coalitional version of the
SV, we provide a correct computation and inference of important variables.
Moreover, a Python library (All the experiments and simulations can be
reproduced with the publicly available library \emph{Active Coalition of
Variables} https://github.com/acvicml/ACV) that computes reliably conditional
expectations and SV for tree-based models, is implemented and compared with
state-of-the-art algorithms on toy models and real data sets.
- Abstract(参考訳): 共有値(SV)は、機械学習モデルを解釈するための金の標準の1つであるが、特に分類変数の存在や重要性の低い変数の存在において、まだ理解されていないことを示す。
例えば、ダミー変数のSVを和らげるという一般的な慣行は、モデル内のすべてのSVの間違った推定を提供し、刺激的な解釈を示唆するので、偽であることを示す。
nullとアクティブな連立の識別とsvの連立バージョンに基づいて、重要な変数の正しい計算と推論を提供する。
さらに、pythonライブラリ(すべての実験とシミュレーションは、公開ライブラリ \emph{active coalition of variables} https://github.com/acvicml/acv)で再現でき、ツリーベースのモデルで確実に条件付き期待値とsvを計算する。
関連論文リスト
- Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Generalization Analysis on Learning with a Concurrent Verifier [16.298786827265673]
機械学習モデルの学習性はCVでどのように変化するかを分析する。
Rademacherの複雑性に基づく典型的なエラー境界は、元のモデルよりも大きくはならない。
論文 参考訳(メタデータ) (2022-10-11T10:51:55Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Identifiable Variational Autoencoders via Sparse Decoding [37.30831737046145]
高次元データに基づく教師なし表現学習のための深層生成モデルであるSparse VAEを開発した。
まず、Sparse VAEが識別可能であることを示し、モデルから引き出されたデータを考えると、一意に最適な要素の集合が存在する。
シミュレーションデータと実データの両方を用いて,Sparse VAEを実証研究する。
論文 参考訳(メタデータ) (2021-10-20T22:11:33Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Accurate Shapley Values for explaining tree-based models [0.0]
木構造を効率的に利用し,最先端の手法よりも精度の高い2つのシェープ値推定器を導入する。
これらのメソッドはPythonパッケージとして利用できる。
論文 参考訳(メタデータ) (2021-06-07T17:35:54Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z) - Variational Mutual Information Maximization Framework for VAE Latent
Codes with Continuous and Discrete Priors [5.317548969642376]
変分オートエンコーダ(VAE)は、複雑なデータの有向潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-06-02T09:05:51Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。