論文の概要: Ensembles of Random SHAPs
- arxiv url: http://arxiv.org/abs/2103.03302v1
- Date: Thu, 4 Mar 2021 20:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:02:00.608387
- Title: Ensembles of Random SHAPs
- Title(参考訳): ランダムSHAPのアンサンブル
- Authors: Lev V. Utkin and Andrei V. Konstantinov
- Abstract要約: ブラックボックスモデルの局所説明のためのよく知られたSHapley Additive exPlanations (SHAP) 法のアンサンブルに基づく修正が提案されている。
修正は、多くの機能がある場合に計算コストがかかるshapを単純化することを目的としている。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble-based modifications of the well-known SHapley Additive exPlanations
(SHAP) method for the local explanation of a black-box model are proposed. The
modifications aim to simplify SHAP which is computationally expensive when
there is a large number of features. The main idea behind the proposed
modifications is to approximate SHAP by an ensemble of SHAPs with a smaller
number of features. According to the first modification, called ER-SHAP,
several features are randomly selected many times from the feature set, and
Shapley values for the features are computed by means of "small" SHAPs. The
explanation results are averaged to get the final Shapley values. According to
the second modification, called ERW-SHAP, several points are generated around
the explained instance for diversity purposes, and results of their explanation
are combined with weights depending on distances between points and the
explained instance. The third modification, called ER-SHAP-RF, uses the random
forest for preliminary explanation of instances and determining a feature
probability distribution which is applied to selection of features in the
ensemble-based procedure of ER-SHAP. Many numerical experiments illustrating
the proposed modifications demonstrate their efficiency and properties for
local explanation.
- Abstract(参考訳): ブラックボックスモデルの局所説明のためのよく知られたSHapley Additive exPlanations (SHAP) 法のアンサンブルに基づく修正が提案されている。
修正は、多くの機能がある場合に計算コストがかかるshapを単純化することを目的としている。
提案された修正の背景にある主な考え方は、少数の特徴を持つSHAPのアンサンブルによってSHAPを近似することである。
ER-SHAPと呼ばれる最初の修正では、いくつかの特徴が特徴集合からランダムに選択され、その特徴のShapley値は「小さい」SHAPによって計算される。
説明結果は、最終的なShapley値を得るために平均されます。
ERW-SHAPと呼ばれる2番目の修正では、説明されたインスタンスの周りに多様性のためにいくつかのポイントが生成され、その説明の結果はポイントと説明されたインスタンスの距離に応じて重みと結合される。
ER-SHAP-RFと呼ばれる第3の修正は、ER-SHAPのアンサンブルベースの手順における特徴の選択に適用される特徴確率分布の予備的説明にランダムフォレストを用いている。
提案された修正を例示する多くの数値実験は、その効率と局所的な説明のための特性を示す。
関連論文リスト
- Improving the Sampling Strategy in KernelSHAP [0.8057006406834466]
KernelSHAPフレームワークは、重み付けされた条件付き期待値のサンプルサブセットを用いて、Shapley値の近似を可能にする。
本稿では,現在最先端戦略における重みの分散を低減するための安定化手法,サンプルサブセットに基づいてShapleyカーネル重みを補正する新しい重み付け方式,および重要なサブセットを包含して修正されたShapleyカーネル重みと統合する簡単な戦略を提案する。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Scalable Ensemble Diversification for OOD Generalization and Detection [68.8982448081223]
SEDは、ハエのハードトレーニングサンプルを特定し、アンサンブルメンバーにこれらについて意見の一致を奨励する。
モデル間でのペアの相違を解消する既存の方法において,コストのかかる計算を避ける方法を示す。
OODの一般化のために,出力空間(古典的)アンサンブルや重量空間アンサンブル(モデルスープ)など,複数の環境での多様化による大きなメリットを観察する。
論文 参考訳(メタデータ) (2024-09-25T10:30:24Z) - Provably Stable Feature Rankings with SHAP and LIME [3.8642937395065124]
最も重要な特徴を高い確率で正しくランク付けする属性法を考案する。
SHAP と LIME の効率的なサンプリングアルゴリズムを導入し,K$ の高階特徴が適切に順序付け可能であることを保証した。
論文 参考訳(メタデータ) (2024-01-28T23:14:51Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Computing SHAP Efficiently Using Model Structure Information [3.6626323701161665]
本稿では, SHAP を時間的あるいはより高速に計算する手法を提案し, 付加性とダミーの仮定を満たす SHAP の定義を提案する。
最初のケースでは、加算特性と低次機能成分からSHAPを計算する方法を示す。
第2のケースでは、時間内にSHAPを計算できる式を導出します。
論文 参考訳(メタデータ) (2023-09-05T17:48:09Z) - WeightedSHAP: analyzing and improving Shapley based feature attributions [17.340091573913316]
共有価値(Shapley value)は、個々の特徴の影響を測定するための一般的なアプローチである。
WeightedSHAPを提案する。これはShapleyの価値を一般化し、データから直接フォーカスする限界貢献を学習する。
いくつかの実世界のデータセットにおいて、WeightedSHAPによって識別される影響のある特徴がモデルの予測を再カプセル化できることを示す。
論文 参考訳(メタデータ) (2022-09-27T14:34:07Z) - Shapley-NAS: Discovering Operation Contribution for Neural Architecture
Search [96.20505710087392]
ニューラルアーキテクチャ探索のための演算寄与度(Shapley-NAS)を評価するためのShapley値に基づく手法を提案する。
提案手法は,光探索コストに比例して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T14:41:49Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - K-Shot Contrastive Learning of Visual Features with Multiple Instance
Augmentations [67.46036826589467]
個々のインスタンス内のサンプルのバリエーションを調べるために、$K$-Shot Contrastive Learningが提案されている。
異なるインスタンスを区別するために差別的特徴を学習することで、インスタンス間差別の利点を組み合わせることを目的としている。
提案した$K$-shotのコントラスト学習は、最先端の教師なし手法よりも優れた性能が得られることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-07-27T04:56:41Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。