論文の概要: Towards Robust Explanations for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2012.10425v1
- Date: Fri, 18 Dec 2020 18:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 20:46:13.803133
- Title: Towards Robust Explanations for Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークのロバストな説明に向けて
- Authors: Ann-Kathrin Dombrowski, Christopher J. Anders, Klaus-Robert M\"uller,
Pan Kessel
- Abstract要約: モデルの最大操作性に関する境界を導出するための統一理論フレームワークを開発する。
操作に対する堅牢性を高める3つの異なる技術を紹介します。
- 参考スコア(独自算出の注目度): 5.735035463793008
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explanation methods shed light on the decision process of black-box
classifiers such as deep neural networks. But their usefulness can be
compromised because they are susceptible to manipulations. With this work, we
aim to enhance the resilience of explanations. We develop a unified theoretical
framework for deriving bounds on the maximal manipulability of a model. Based
on these theoretical insights, we present three different techniques to boost
robustness against manipulation: training with weight decay, smoothing
activation functions, and minimizing the Hessian of the network. Our
experimental results confirm the effectiveness of these approaches.
- Abstract(参考訳): 説明手法は、ディープニューラルネットワークのようなブラックボックス分類器の決定過程に光を当てた。
しかし、それらの有用性は操作に影響を受けやすいため、損なわれる可能性がある。
この研究は,説明のレジリエンスを高めることを目的としている。
モデルの最大操作性に関する境界を導出するための統一理論フレームワークを開発する。
これらの理論的知見に基づいて,重み付きトレーニング,活性化関数の平滑化,ネットワークのヘシアンの最小化という,操作に対する堅牢性を高める3つの手法を提案する。
実験結果から,これらの手法の有効性を確認した。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - A Robust Unsupervised Ensemble of Feature-Based Explanations using
Restricted Boltzmann Machines [4.821071466968101]
Restricted Boltzmann Machines (RBMs) を用いた説明アルゴリズムの特徴属性の集約手法を提案する。
実世界のデータセットにおけるいくつかの挑戦的な実験により、提案手法は一般的な特徴帰属法や基本アンサンブル手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-11-14T15:58:21Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Ada-SISE: Adaptive Semantic Input Sampling for Efficient Explanation of
Convolutional Neural Networks [26.434705114982584]
畳み込みニューラルネットワークの効率的な解釈手法を提案する。
実験の結果,提案手法は実行時間を最大30%削減できることがわかった。
論文 参考訳(メタデータ) (2021-02-15T19:10:00Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。