論文の概要: Learning Baseline Values for Shapley Values
- arxiv url: http://arxiv.org/abs/2105.10719v1
- Date: Sat, 22 May 2021 13:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:29:32.440568
- Title: Learning Baseline Values for Shapley Values
- Title(参考訳): shapley値のベースライン値の学習
- Authors: Jie Ren, Zhanpeng Zhou, Qirui Chen, Quanshi Zhang
- Abstract要約: Shapley値は、複素モデルの各入力変数の属性を測定する。
先行研究は通常、経験的な方法で基準値を決定する。
本稿では,ゲーム理論の観点から,深部モデルの特徴表現を再考する。
- 参考スコア(独自算出の注目度): 12.81783157127006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to formulate the problem of estimating the optimal baseline
values for the Shapley value in game theory. The Shapley value measures the
attribution of each input variable of a complex model, which is computed as the
marginal benefit from the presence of this variable w.r.t.its absence under
different contexts. To this end, people usually set the input variable to its
baseline value to represent the absence of this variable (i.e.the no-signal
state of this variable). Previous studies usually determine the baseline values
in an empirical manner, which hurts the trustworthiness of the Shapley value.
In this paper, we revisit the feature representation of a deep model from the
perspective of game theory, and define the multi-variate interaction patterns
of input variables to define the no-signal state of an input variable. Based on
the multi-variate interaction, we learn the optimal baseline value of each
input variable. Experimental results have demonstrated the effectiveness of our
method.
- Abstract(参考訳): 本稿では,ゲーム理論におけるシェープリー値の最適基準値を推定する問題を定式化することを目的とする。
Shapley値は、複素モデルの各入力変数の属性を測定し、この変数 w.r.t. が異なる文脈で存在しないことの限界利益として計算される。
この目的のために、通常、入力変数をベースライン値に設定して、この変数の欠如を表す(つまり、この変数の符号なし状態)。
以前の研究では、通常、基準値が経験的な方法で決定されるため、シェープリー価値の信頼性が損なわれる。
本稿では,ゲーム理論の観点から,深層モデルの特徴表現を再検討し,入力変数の多変数相互作用パターンを定義し,入力変数の無符号状態を定義する。
多変量相互作用に基づき、各入力変数の最適ベースライン値を学習する。
実験の結果,本手法の有効性が示された。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - pseudo-Bayesian Neural Networks for detecting Out of Distribution Inputs [12.429095025814345]
重みよりも分布を学習する代わりに、推定時に点推定と摂動重みを用いる擬似BNNを提案する。
全体として、この組み合わせは、推論時にOODサンプルを検出するという原則的な手法をもたらす。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - Probabilistic Robustness Analysis for DNNs based on PAC Learning [14.558877524991752]
我々は、DNNを入力から出力までの関数 $boldsymbolf$ とみなし、与えられた入力に対する局所ロバスト性を考慮する。
目標ラベル $ell$ と攻撃ラベル $i$ に関してスコア差関数 $f_i-f_ell$ を学習する。
我々のフレームワークは、6.5ドルのニューロンを持つResNet152のような非常に大きなニューラルネットワークを処理でき、しばしば敵の例を生成する。
論文 参考訳(メタデータ) (2021-01-25T14:10:52Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding [52.48298164494608]
変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
論文 参考訳(メタデータ) (2020-07-30T02:37:46Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。