論文の概要: Adversarial Examples Detection and Analysis with Layer-wise Autoencoders
- arxiv url: http://arxiv.org/abs/2006.10013v1
- Date: Wed, 17 Jun 2020 17:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:26:39.781067
- Title: Adversarial Examples Detection and Analysis with Layer-wise Autoencoders
- Title(参考訳): 階層型オートエンコーダによる逆例検出と解析
- Authors: Bartosz W\'ojcik, Pawe{\l} Morawiecki, Marek \'Smieja, Tomasz
Krzy\.zek, Przemys{\l}aw Spurek, Jacek Tabor
- Abstract要約: 本稿では,対象ネットワークの隠蔽層から抽出したデータ表現に基づいて,敵のサンプルを検出する機構を提案する。
これにより、真のデータの多様体を記述し、与えられた例が真のデータと同じ特性を持つかどうかを決定することができる。
また、敵対的な例の振る舞いと、ディープニューラルネットワークの層を流れる流れについて、洞察を与えてくれる。
- 参考スコア(独自算出の注目度): 11.048707408233724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a mechanism for detecting adversarial examples based on data
representations taken from the hidden layers of the target network. For this
purpose, we train individual autoencoders at intermediate layers of the target
network. This allows us to describe the manifold of true data and, in
consequence, decide whether a given example has the same characteristics as
true data. It also gives us insight into the behavior of adversarial examples
and their flow through the layers of a deep neural network. Experimental
results show that our method outperforms the state of the art in supervised and
unsupervised settings.
- Abstract(参考訳): 本稿では,対象ネットワークの隠蔽層から抽出したデータ表現に基づいて,逆例を検出する機構を提案する。
この目的のために、ターゲットネットワークの中間層で個々のオートエンコーダを訓練する。
これにより、真のデータの多様体を記述することができ、その結果、与えられた例が真のデータと同じ特性を持つかどうかを決定することができる。
また、敵対的な例の振る舞いと、ディープニューラルネットワークの層を流れる流れについて、洞察を与えてくれる。
実験の結果,本手法は,教師なしおよび教師なしの設定において,芸術の状態を上回っていることがわかった。
関連論文リスト
- Hypergraph Topological Features for Autoencoder-Based Intrusion Detection for Cybersecurity Data [0.8046432252929225]
ハイパーグラフを用いてデータの複数方向の局所的関係を捉える場合、そのトポロジ的特徴はグローバルな振る舞いを表わす。
本稿では,サイバーセキュリティデータに対する潜在的なパイプラインを2つ提案する。1つは,ネットワーク侵入を直接的に検出するオートエンコーダと,もう1つは永続的ホモロジーシステムPHANTOMの入力データをノイズ除去するパイプラインである。
論文 参考訳(メタデータ) (2023-11-09T20:05:10Z) - A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks [6.100274095771616]
この研究は、スパイキングニューラルネットワークに入力されたテスト例がトレーニングされたデータの分布に属するかどうかを識別できる新しいOoD検出器を提案する。
我々は、スパイクカウントパターンの形で、ネットワークの隠蔽層の内部活性化を特徴付ける。
入力インスタンスのどの部分が最もOoDサンプルとして検出されるかを明らかにする属性マップを作成するために,局所的な説明法が考案された。
論文 参考訳(メタデータ) (2022-09-30T11:16:35Z) - Representation Learning for Content-Sensitive Anomaly Detection in
Industrial Networks [0.0]
本論文では、生のネットワークトラフィックの時空間的側面を教師なしかつプロトコルに依存しない方法で学習する枠組みを提案する。
学習された表現は、その後の異常検出の結果に与える影響を測定するために使用される。
論文 参考訳(メタデータ) (2022-04-20T09:22:41Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Analyzing the Noise Robustness of Deep Neural Networks [43.63911131982369]
通常の例に小さいが故意に知覚できない摂動を加えることで生じる敵対的な例は、深層ニューラルネットワーク(DNN)を誤認して誤った予測をする可能性がある。
本稿では,なぜ敵対的事例が誤分類されたのかを説明するための視覚解析手法を提案する。
論文 参考訳(メタデータ) (2020-01-26T03:39:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。