論文の概要: Adversarial Profiles: Detecting Out-Distribution & Adversarial Samples
in Pre-trained CNNs
- arxiv url: http://arxiv.org/abs/2011.09123v1
- Date: Wed, 18 Nov 2020 07:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:21:01.109869
- Title: Adversarial Profiles: Detecting Out-Distribution & Adversarial Samples
in Pre-trained CNNs
- Title(参考訳): 対数プロファイル:事前学習CNNにおける外分布・対数サンプルの検出
- Authors: Arezoo Rajabi, Rakesh B. Bobba
- Abstract要約: 本稿では, 事前学習したCNNに対して, 敵対的, アウト・ディストリビューション的事例を検出する手法を提案する。
この目的のために,1つの対向攻撃生成技術のみを用いて,各クラスに対する対向プロファイルを作成する。
MNISTデータセットを用いた本手法の初期評価では, 分布外例の少なくとも92例, 対向外例の59%を検出するのに, 対向プロファイルに基づく検出が有効であることが示唆された。
- 参考スコア(独自算出の注目度): 4.52308938611108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite high accuracy of Convolutional Neural Networks (CNNs), they are
vulnerable to adversarial and out-distribution examples. There are many
proposed methods that tend to detect or make CNNs robust against these fooling
examples. However, most such methods need access to a wide range of fooling
examples to retrain the network or to tune detection parameters. Here, we
propose a method to detect adversarial and out-distribution examples against a
pre-trained CNN without needing to retrain the CNN or needing access to a wide
variety of fooling examples. To this end, we create adversarial profiles for
each class using only one adversarial attack generation technique. We then wrap
a detector around the pre-trained CNN that applies the created adversarial
profile to each input and uses the output to decide whether or not the input is
legitimate. Our initial evaluation of this approach using MNIST dataset show
that adversarial profile based detection is effective in detecting at least 92
of out-distribution examples and 59% of adversarial examples.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の精度が高いにもかかわらず、敵や外分布の例には弱い。
これらのばかげた例に対してCNNを検出または堅牢にする手法は多数提案されている。
しかし、そのような手法の多くは、ネットワークの再トレーニングや検出パラメータのチューニングのために、幅広い騙しの例にアクセスする必要がある。
本稿では,CNNの再訓練や,多種多様な不正な事例へのアクセスを必要とせずに,事前学習したCNNに対して,敵対的かつ非分配的な事例を検出する手法を提案する。
この目的のために,1つの攻撃生成手法のみを用いて,各クラスに対する攻撃プロファイルを作成する。
次に、事前に訓練されたCNNの周りに検出器をラップし、各入力に生成した逆プロファイルを適用し、出力を使用して入力が正当かどうかを決定する。
mnistデータセットを用いた本手法の初期評価では,少なくとも92例,59%の検出において,逆プロファイルに基づく検出が有効であることが示された。
関連論文リスト
- CausAdv: A Causal-based Framework for Detecting Adversarial Examples [0.0]
畳み込みニューラルネットワーク(CNN)は、入力の逆方向の摂動に対して脆弱である。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
論文 参考訳(メタデータ) (2024-10-29T22:57:48Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。