論文の概要: HarsanyiNet: Computing Accurate Shapley Values in a Single Forward
Propagation
- arxiv url: http://arxiv.org/abs/2304.01811v1
- Date: Tue, 4 Apr 2023 14:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:39:23.936850
- Title: HarsanyiNet: Computing Accurate Shapley Values in a Single Forward
Propagation
- Title(参考訳): HarsanyiNet: 単一のフォワードプロパゲーションにおける正確なシェープ値の計算
- Authors: Lu Chen, Siyu Lou, Keyan Zhang, Jin Huang, Quanshi Zhang
- Abstract要約: HarsanyiNetは入力サンプルに対して推論を行い、入力変数の正確なShapley値を1つの前方伝播で同時に計算する。
HarsanyiNetは、Shapley値がネットワークによって符号化されたHarsanyi相互作用の再分配として再構成可能であるという理論的基礎に基づいて設計されている。
- 参考スコア(独自算出の注目度): 32.37525058062428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Shapley value is widely regarded as a trustworthy attribution metric.
However, when people use Shapley values to explain the attribution of input
variables of a deep neural network (DNN), it usually requires a very high
computational cost to approximate relatively accurate Shapley values in
real-world applications. Therefore, we propose a novel network architecture,
the HarsanyiNet, which makes inferences on the input sample and simultaneously
computes the exact Shapley values of the input variables in a single forward
propagation. The HarsanyiNet is designed on the theoretical foundation that the
Shapley value can be reformulated as the redistribution of Harsanyi
interactions encoded by the network.
- Abstract(参考訳): シェープの価値は信頼に値する帰属指標として広く見なされている。
しかしながら、ディープニューラルネットワーク(DNN)の入力変数の属性を説明するためにShapley値を使用する場合、現実のアプリケーションで比較的正確なShapley値を近似するためには、通常非常に高い計算コストが必要となる。
そこで本研究では,入力変数の正確なShapley値を単一の前方伝播で同時に計算する,新しいネットワークアーキテクチャであるHarsanyiNetを提案する。
HarsanyiNetは、Shapley値がネットワークによって符号化されたHarsanyi相互作用の再分配として再構成可能であるという理論的基礎に基づいて設計されている。
関連論文リスト
- Shapley Pruning for Neural Network Compression [63.60286036508473]
この研究はShapley値近似を示し、ニューラルネットワーク圧縮の費用対効果の観点から比較分析を行う。
提案した規範的ランキングとその近似は、最先端のネットワーク圧縮を得る実用的な結果を示す。
論文 参考訳(メタデータ) (2024-07-19T11:42:54Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Fast Approximation of the Shapley Values Based on Order-of-Addition
Experimental Designs [11.684428415506968]
$d$-player 連立ゲームでは、Shapley の値を計算するには$d!$ または $2d$ の限界貢献値が必要である。
一般的な治療法は、置換の完全なリストを補うために、置換のランダムなサンプルを取ることである。
我々はシェープリー値のより正確な推定を行うために、高度なサンプリングスキームを設計できることを見出した。
論文 参考訳(メタデータ) (2023-09-16T08:28:15Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Accelerating Shapley Explanation via Contributive Cooperator Selection [42.11059072201565]
DNNモデルのShapley説明を著しく高速化する新しい手法SHEARを提案する。
特徴連立の選定は、本提案のシェープリー連鎖則に従い、真真正値から絶対誤差を最小化する。
SHEARは、さまざまな評価指標で、最先端のベースラインメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2022-06-17T03:24:45Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - Shapley Explanation Networks [19.89293579058277]
深層モデルにShapley値そのものを潜在表現として組み込むことを提案する。
Shapley変換をニューラルネットワークモジュールとして運用し、ShapNetsと呼ばれる浅いネットワークと深いネットワークの両方を構築する。
Shallow ShapNetsはShapley値の正確な計算を行い、Deep ShapNetsはShapley値の欠如と正確性を維持します。
論文 参考訳(メタデータ) (2021-04-06T05:42:12Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。