論文の概要: Shapley Explanation Networks
- arxiv url: http://arxiv.org/abs/2104.02297v1
- Date: Tue, 6 Apr 2021 05:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:22:48.088755
- Title: Shapley Explanation Networks
- Title(参考訳): Shapley Explanation Networks
- Authors: Rui Wang, Xiaoqian Wang, David I. Inouye
- Abstract要約: 深層モデルにShapley値そのものを潜在表現として組み込むことを提案する。
Shapley変換をニューラルネットワークモジュールとして運用し、ShapNetsと呼ばれる浅いネットワークと深いネットワークの両方を構築する。
Shallow ShapNetsはShapley値の正確な計算を行い、Deep ShapNetsはShapley値の欠如と正確性を維持します。
- 参考スコア(独自算出の注目度): 19.89293579058277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values have become one of the most popular feature attribution
explanation methods. However, most prior work has focused on post-hoc Shapley
explanations, which can be computationally demanding due to its exponential
time complexity and preclude model regularization based on Shapley explanations
during training. Thus, we propose to incorporate Shapley values themselves as
latent representations in deep models thereby making Shapley explanations
first-class citizens in the modeling paradigm. This intrinsic explanation
approach enables layer-wise explanations, explanation regularization of the
model during training, and fast explanation computation at test time. We define
the Shapley transform that transforms the input into a Shapley representation
given a specific function. We operationalize the Shapley transform as a neural
network module and construct both shallow and deep networks, called ShapNets,
by composing Shapley modules. We prove that our Shallow ShapNets compute the
exact Shapley values and our Deep ShapNets maintain the missingness and
accuracy properties of Shapley values. We demonstrate on synthetic and
real-world datasets that our ShapNets enable layer-wise Shapley explanations,
novel Shapley regularizations during training, and fast computation while
maintaining reasonable performance. Code is available at
https://github.com/inouye-lab/ShapleyExplanationNetworks.
- Abstract(参考訳): シェープ値は、最も人気のある特徴属性説明手法の1つである。
しかし、これまでのほとんどの研究は、急激な時間的複雑さと訓練中のシェープリーの説明に基づくモデル正規化の防止により計算的に要求される、ホック後のシェープリーの説明に焦点を当ててきた。
そこで本研究では,Shapleyの値自体を深層モデルにおける潜在表現として取り入れることで,モデリングパラダイムにおける第一級市民のShapley説明を実現することを提案する。
この本質的な説明アプローチによって、層的な説明、トレーニング中のモデルの説明規則化、テスト時の迅速な説明計算が可能になる。
入力を特定の関数を与えられたShapley表現に変換するShapley変換を定義する。
ニューラルネットワークモジュールとしてShapley変換を運用し、Shapleyモジュールを構成することで、ShapNetsと呼ばれる浅層ネットワークと深層ネットワークの両方を構築します。
我々はShallow ShapNetsがShapleyの正確な値を計算することを証明し、Deep ShapNetsはShapley値の欠如と精度特性を維持している。
私たちは、ShapNetがレイヤーワイドなShapley説明、トレーニング中の新しいShapley正規化、適切なパフォーマンスを維持しながら高速な計算を可能にする合成および実世界のデータセットを実証します。
コードはhttps://github.com/inouye-lab/shapleyexplanationnetworksで入手できる。
関連論文リスト
- Shapley Pruning for Neural Network Compression [63.60286036508473]
この研究はShapley値近似を示し、ニューラルネットワーク圧縮の費用対効果の観点から比較分析を行う。
提案した規範的ランキングとその近似は、最先端のネットワーク圧縮を得る実用的な結果を示す。
論文 参考訳(メタデータ) (2024-07-19T11:42:54Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - From Shapley Values to Generalized Additive Models and back [16.665883787432858]
我々は$n$-Shapley Valuesを紹介します。これはShapley Valuesの自然な拡張で、$n$までの相互作用項による個々の予測を説明します。
Shapley-GAMから任意の順序でShapley Valuesを計算し、これらの説明の限界について正確な洞察を与える。
技術的には、値関数を選択する異なる方法と元の関数の異なる機能分解との間には、1対1の対応があることが示される。
論文 参考訳(メタデータ) (2022-09-08T19:37:06Z) - PDD-SHAP: Fast Approximations for Shapley Values using Functional
Decomposition [2.0559497209595823]
我々は、ANOVAに基づく関数分解モデルを用いて説明中のブラックボックスモデルを近似するアルゴリズムであるPDD-SHAPを提案する。
これにより、Shapleyの値を既存の大規模データセットの手法よりも桁違いに高速に計算でき、Shapleyの計算コストを大幅に削減できる。
論文 参考訳(メタデータ) (2022-08-26T11:49:54Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - FastSHAP: Real-Time Shapley Value Estimation [25.536804325758805]
FastSHAPは、学習された説明モデルを用いて、1つのフォワードパスでShapley値を推定する手法である。
これは、Shapley値の重み付き最小二乗特徴づけにインスパイアされた学習アプローチを通じて、多くの入力を説明するコストを償却する。
これは、桁違いのスピードアップで高品質な説明を生成する。
論文 参考訳(メタデータ) (2021-07-15T16:34:45Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - PatchNets: Patch-Based Generalizable Deep Implicit 3D Shape
Representations [75.42959184226702]
物体認識訓練のための中級パッチベースサーフェス表現を提案する。
形状や部分点雲の完全化など,新しい表現の応用例をいくつか紹介する。
論文 参考訳(メタデータ) (2020-08-04T15:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。