論文の概要: Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps
- arxiv url: http://arxiv.org/abs/2208.11436v1
- Date: Wed, 24 Aug 2022 11:05:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:53:04.011078
- Title: Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps
- Title(参考訳): 特徴応答マップを用いたCNNの敵攻撃の追跡と検出
- Authors: Mohammadreza Amirian, Friedhelm Schwenker and Thilo Stadelmann
- Abstract要約: 畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existence of adversarial attacks on convolutional neural networks (CNN)
questions the fitness of such models for serious applications. The attacks
manipulate an input image such that misclassification is evoked while still
looking normal to a human observer -- they are thus not easily detectable. In a
different context, backpropagated activations of CNN hidden layers -- "feature
responses" to a given input -- have been helpful to visualize for a human
"debugger" what the CNN "looks at" while computing its output. In this work, we
propose a novel detection method for adversarial examples to prevent attacks.
We do so by tracking adversarial perturbations in feature responses, allowing
for automatic detection using average local spatial entropy. The method does
not alter the original network architecture and is fully human-interpretable.
Experiments confirm the validity of our approach for state-of-the-art attacks
on large-scale models trained on ImageNet.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnn)に対する逆攻撃の存在は、そのようなモデルの真剣な応用への適合性に疑問を呈する。
攻撃は入力イメージを操作して、人間のオブザーバに対して正常に見えながら、誤分類が誘発される。したがって、検出は容易ではない。別のコンテキストでは、CNNの隠されたレイヤのバックプロパゲートアクティベーション -- 与えられた入力に対する"機能応答" -- が、CNNが出力を計算しながら、人間の"デバッガ"を可視化するのに役立つ。
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
我々は,特徴応答における逆摂動を追跡することで,平均局所的空間エントロピーを用いた自動検出を可能にする。
この方法は元のネットワークアーキテクチャを変更せず、完全に人間に解釈可能である。
実験により,imagenetでトレーニングされた大規模モデルに対する最先端攻撃に対するアプローチの有効性を確認した。
関連論文リスト
- Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Adversarial Profiles: Detecting Out-Distribution & Adversarial Samples
in Pre-trained CNNs [4.52308938611108]
本稿では, 事前学習したCNNに対して, 敵対的, アウト・ディストリビューション的事例を検出する手法を提案する。
この目的のために,1つの対向攻撃生成技術のみを用いて,各クラスに対する対向プロファイルを作成する。
MNISTデータセットを用いた本手法の初期評価では, 分布外例の少なくとも92例, 対向外例の59%を検出するのに, 対向プロファイルに基づく検出が有効であることが示唆された。
論文 参考訳(メタデータ) (2020-11-18T07:10:13Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection [29.83857022733448]
本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
論文 参考訳(メタデータ) (2020-07-10T07:58:35Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。