論文の概要: Analyzing the Noise Robustness of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2001.09395v1
- Date: Sun, 26 Jan 2020 03:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:42:38.119310
- Title: Analyzing the Noise Robustness of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのノイズロバスト性の解析
- Authors: Kelei Cao, Mengchen Liu, Hang Su, Jing Wu, Jun Zhu, Shixia Liu
- Abstract要約: 通常の例に小さいが故意に知覚できない摂動を加えることで生じる敵対的な例は、深層ニューラルネットワーク(DNN)を誤認して誤った予測をする可能性がある。
本稿では,なぜ敵対的事例が誤分類されたのかを説明するための視覚解析手法を提案する。
- 参考スコア(独自算出の注目度): 43.63911131982369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples, generated by adding small but intentionally
imperceptible perturbations to normal examples, can mislead deep neural
networks (DNNs) to make incorrect predictions. Although much work has been done
on both adversarial attack and defense, a fine-grained understanding of
adversarial examples is still lacking. To address this issue, we present a
visual analysis method to explain why adversarial examples are misclassified.
The key is to compare and analyze the datapaths of both the adversarial and
normal examples. A datapath is a group of critical neurons along with their
connections. We formulate the datapath extraction as a subset selection problem
and solve it by constructing and training a neural network. A multi-level
visualization consisting of a network-level visualization of data flows, a
layer-level visualization of feature maps, and a neuron-level visualization of
learned features, has been designed to help investigate how datapaths of
adversarial and normal examples diverge and merge in the prediction process. A
quantitative evaluation and a case study were conducted to demonstrate the
promise of our method to explain the misclassification of adversarial examples.
- Abstract(参考訳): 通常の例に小さいが意図的に知覚できない摂動を加えることで生成された逆例は、深層ニューラルネットワーク(DNN)を誤認して誤った予測を行う。
敵の攻撃と防御の両方について多くの研究が行われてきたが、敵の事例の詳細な理解はいまだに不足している。
この問題に対処するため,本研究では,逆行例の誤分類の理由を説明するビジュアル解析手法を提案する。
鍵となるのは、逆例と通常の例の両方のデータパスの比較と分析である。
データパス(英: datapath)は、重要なニューロン群である。
データパス抽出をサブセット選択問題として定式化し、ニューラルネットワークの構築とトレーニングにより解決する。
データフローのネットワークレベルでの可視化、特徴マップのレイヤーレベルの可視化、学習された特徴のニューロンレベルでの可視化からなるマルチレベル可視化は、逆行例と正規例のデータパスが予測プロセスにおいてどのように分岐しマージするかを調べるのに役立つように設計されている。
敵の事例の誤分類を説明するための方法の可能性を実証するために,定量的評価とケーススタディを行った。
関連論文リスト
- Hidden Activations Are Not Enough: A General Approach to Neural Network Predictions [0.0]
本稿では,クイバー表現理論のツールを用いたニューラルネットワーク解析のための新しい数学的枠組みを提案する。
データサンプルの帰納的クイバー表現を活用することで、従来の隠蔽層出力よりも多くの情報をキャプチャする。
結果はアーキテクチャ非依存でタスク非依存であり、広く適用できます。
論文 参考訳(メタデータ) (2024-09-20T02:35:13Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Slope and generalization properties of neural networks [0.0]
十分に訓練されたニューラルネットワーク分類器の勾配分布は、一般に、完全に接続されたネットワークの層幅から独立していることを示す。
傾斜は、関連する体積を通して類似した大きさであり、滑らかに変化する。また、再スケーリングの例でも予測されるように振る舞う。
本稿では、損失関数の一部として利用したり、ネットワークトレーニング中に基準を終了させたり、複雑度の観点からデータセットをランク付けしたりといった、斜面概念の応用の可能性について論じる。
論文 参考訳(メタデータ) (2021-07-03T17:54:27Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Explaining Away Attacks Against Neural Networks [3.658164271285286]
画像ベースニューラルネットワークに対する敵攻撃を識別する問題について検討する。
そこで本研究では, クリーンデータと逆データに対するモデル予測における説明の相違について検討した。
本稿では,モデルによる説明に基づいて,与えられた入力が逆方向かどうかを識別できるフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-06T15:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。