論文の概要: Nowhere to Hide: A Lightweight Unsupervised Detector against Adversarial
Examples
- arxiv url: http://arxiv.org/abs/2210.08579v1
- Date: Sun, 16 Oct 2022 16:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:41:34.397926
- Title: Nowhere to Hide: A Lightweight Unsupervised Detector against Adversarial
Examples
- Title(参考訳): ライトウェイトな無防備な検知器「Nowhere to Hide」
- Authors: Hui Liu, Bo Zhao, Kehuan Zhang, Peng Liu
- Abstract要約: 敵対的な例は、わずかながら悪質に作られた摂動を良心的なイメージに追加することによって生成される。
本稿では,AutoEncoderを用いたAdversarial Examples検出器を提案する。
AEAEは、最先端の攻撃に対して教師なしで安価であることを実証的に示す。
- 参考スコア(独自算出の注目度): 14.332434280103667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep neural networks (DNNs) have shown impressive performance on
many perceptual tasks, they are vulnerable to adversarial examples that are
generated by adding slight but maliciously crafted perturbations to benign
images. Adversarial detection is an important technique for identifying
adversarial examples before they are entered into target DNNs. Previous studies
to detect adversarial examples either targeted specific attacks or required
expensive computation. How design a lightweight unsupervised detector is still
a challenging problem. In this paper, we propose an AutoEncoder-based
Adversarial Examples (AEAE) detector, that can guard DNN models by detecting
adversarial examples with low computation in an unsupervised manner. The AEAE
includes only a shallow autoencoder but plays two roles. First, a well-trained
autoencoder has learned the manifold of benign examples. This autoencoder can
produce a large reconstruction error for adversarial images with large
perturbations, so we can detect significantly perturbed adversarial examples
based on the reconstruction error. Second, the autoencoder can filter out the
small noise and change the DNN's prediction on adversarial examples with small
perturbations. It helps to detect slightly perturbed adversarial examples based
on the prediction distance. To cover these two cases, we utilize the
reconstruction error and prediction distance from benign images to construct a
two-tuple feature set and train an adversarial detector using the isolation
forest algorithm. We show empirically that the AEAE is unsupervised and
inexpensive against the most state-of-the-art attacks. Through the detection in
these two cases, there is nowhere to hide adversarial examples.
- Abstract(参考訳): 深層ニューラルネットワーク(dnn)は多くの知覚的タスクで印象的なパフォーマンスを示しているが、良性画像に微妙だが悪意ある摂動を加えることで生じる敵対的な例に弱い。
敵検出は、相手のDNNに入る前に相手のサンプルを識別する重要な手法である。
敵の例を検出する以前の研究は、特定の攻撃を標的にするか、高価な計算を必要としていた。
軽量な非監視検出器の設計はいまだに難しい問題だ。
本稿では,DNNモデルを教師なしで低い計算量で検出することで,DNNモデルを保護できるオートエンコーダベースの逆例検出器(AEAE)を提案する。
AEAEは浅いオートエンコーダのみを含むが、2つの役割を担っている。
まず、よく訓練されたオートエンコーダは良性の例の多様体を学んだ。
このオートエンコーダは、大きな摂動を伴う対向画像に対して大きな再構成誤差を発生させることができるので、再構成誤差に基づいて、かなり摂動対向例を検出することができる。
第二に、オートエンコーダは小さなノイズを除去し、小さな摂動を伴う敵例に対するDNNの予測を変更することができる。
これは予測距離に基づいてわずかに摂動した敵の例を検出するのに役立つ。
これら2つの事例をカバーするために,良性画像からの再構成誤差と予測距離を用いて,2重特徴集合を構築し,分離フォレストアルゴリズムを用いて逆検出器を訓練する。
AEAEは、最先端の攻撃に対して教師なしで安価であることを実証的に示す。
この2つのケースにおける検出を通じて、逆の例を隠す場所はない。
関連論文リスト
- HOLMES: to Detect Adversarial Examples with Multiple Detectors [1.455585466338228]
HOLMESは、高い精度と偽陽性率の低い複数の攻撃から、テクスチュンシンの敵の例を識別することができる。
我々の効果的で安価な戦略は、オリジナルのDNNモデルを変更したり、内部パラメータを必要としたりしない。
論文 参考訳(メタデータ) (2024-05-30T11:22:55Z) - New Adversarial Image Detection Based on Sentiment Analysis [37.139957973240264]
敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
論文 参考訳(メタデータ) (2023-05-03T14:32:21Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Self-Supervised Adversarial Example Detection by Disentangled
Representation [16.98476232162835]
判別器ネットワークが支援するオートエンコーダを,正しくペア化されたクラス/セマンティクス特徴と誤ったペアのクラス/セマンティクス特徴の両方から訓練し,良性と反例を再構築する。
これは逆例の振る舞いを模倣し、オートエンコーダの不要な一般化能力を減らすことができる。
本手法は,最先端の自己監視検出手法と比較して,様々な測定結果において優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-08T12:48:18Z) - DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction [7.867922462470315]
DAFARは、ディープラーニングモデルにより、高い精度と普遍性で敵の例を検出することができる。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかなリコンストラクションエラー攻撃に直接変換する。
実験によると、DAFARは合法的なサンプルのパフォーマンスを失うことなく、人気があり、間違いなく最も先進的な攻撃に対して効果的です。
論文 参考訳(メタデータ) (2021-03-11T06:18:50Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。