論文の概要: Can We Faithfully Represent Masked States to Compute Shapley Values on a
DNN?
- arxiv url: http://arxiv.org/abs/2105.10719v4
- Date: Wed, 24 May 2023 11:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 03:50:01.105396
- Title: Can We Faithfully Represent Masked States to Compute Shapley Values on a
DNN?
- Title(参考訳): 仮面状態から DNN の共有値を計算することは可能か?
- Authors: Jie Ren, Zhanpeng Zhou, Qirui Chen, Quanshi Zhang
- Abstract要約: ディープニューラルネットワークの入力変数をマスキングすることは、サンプル内の入力変数の属性を計算する方法を表す。
ベースライン値が入力変数の欠如を忠実に表すかどうかを調べる理論はない。
本研究では,最適基準値の学習法を提案し,その有効性を実証した。
- 参考スコア(独自算出の注目度): 26.8154658659473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masking some input variables of a deep neural network (DNN) and computing
output changes on the masked input sample represent a typical way to compute
attributions of input variables in the sample. People usually mask an input
variable using its baseline value. However, there is no theory to examine
whether baseline value faithfully represents the absence of an input variable,
\emph{i.e.,} removing all signals from the input variable. Fortunately, recent
studies show that the inference score of a DNN can be strictly disentangled
into a set of causal patterns (or concepts) encoded by the DNN. Therefore, we
propose to use causal patterns to examine the faithfulness of baseline values.
More crucially, it is proven that causal patterns can be explained as the
elementary rationale of the Shapley value. Furthermore, we propose a method to
learn optimal baseline values, and experimental results have demonstrated its
effectiveness.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の入力変数を計算し、マスクされた入力サンプルの出力変化を計算することは、サンプル内の入力変数の属性を計算する典型的な方法である。
人々は通常、ベースライン値を使用して入力変数をマスクします。
しかし、ベースライン値が入力変数の欠如を忠実に表すかどうか、すなわち入力変数から全ての信号を除去するかどうかを調べる理論はない。
幸いなことに、最近の研究では、DNNの推論スコアが、DNNによって符号化された因果パターン(あるいは概念)のセットに厳密に切り離されていることが示されている。
そこで本研究では,基本値の忠実度を因果パターンを用いて検討する。
さらに重要なことは、因果パターンがシェープリー値の基本理論的根拠として説明できることが証明されている。
さらに,最適ベースライン値の学習法を提案し,その効果を実験的に実証した。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - pseudo-Bayesian Neural Networks for detecting Out of Distribution Inputs [12.429095025814345]
重みよりも分布を学習する代わりに、推定時に点推定と摂動重みを用いる擬似BNNを提案する。
全体として、この組み合わせは、推論時にOODサンプルを検出するという原則的な手法をもたらす。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - Probabilistic Robustness Analysis for DNNs based on PAC Learning [14.558877524991752]
我々は、DNNを入力から出力までの関数 $boldsymbolf$ とみなし、与えられた入力に対する局所ロバスト性を考慮する。
目標ラベル $ell$ と攻撃ラベル $i$ に関してスコア差関数 $f_i-f_ell$ を学習する。
我々のフレームワークは、6.5ドルのニューロンを持つResNet152のような非常に大きなニューラルネットワークを処理でき、しばしば敵の例を生成する。
論文 参考訳(メタデータ) (2021-01-25T14:10:52Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding [52.48298164494608]
変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
論文 参考訳(メタデータ) (2020-07-30T02:37:46Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。