論文の概要: DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction
- arxiv url: http://arxiv.org/abs/2103.06487v1
- Date: Thu, 11 Mar 2021 06:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:53:06.620938
- Title: DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction
- Title(参考訳): DAFAR: フィードバック・オートエンコーダ再構成による敵検出
- Authors: Haowen Liu, Ping Yi, Hsiao-Ying Lin, Jie Shi
- Abstract要約: DAFARは、ディープラーニングモデルにより、高い精度と普遍性で敵の例を検出することができる。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかなリコンストラクションエラー攻撃に直接変換する。
実験によると、DAFARは合法的なサンプルのパフォーマンスを失うことなく、人気があり、間違いなく最も先進的な攻撃に対して効果的です。
- 参考スコア(独自算出の注目度): 7.867922462470315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has shown impressive performance on challenging perceptual
tasks. However, researchers found deep neural networks vulnerable to
adversarial examples. Since then, many methods are proposed to defend against
or detect adversarial examples, but they are either attack-dependent or shown
to be ineffective with new attacks.
We propose DAFAR, a feedback framework that allows deep learning models to
detect adversarial examples in high accuracy and universality. DAFAR has a
relatively simple structure, which contains a target network, a plug-in
feedback network and an autoencoder-based detector. The key idea is to capture
the high-level features extracted by the target network, and then reconstruct
the input using the feedback network. These two parts constitute a feedback
autoencoder. It transforms the imperceptible-perturbation attack on the target
network directly into obvious reconstruction-error attack on the feedback
autoencoder. Finally the detector gives an anomaly score and determines whether
the input is adversarial according to the reconstruction errors. Experiments
are conducted on MNIST and CIFAR-10 data-sets. Experimental results show that
DAFAR is effective against popular and arguably most advanced attacks without
losing performance on legitimate samples, with high accuracy and universality
across attack methods and parameters.
- Abstract(参考訳): 深層学習は、知覚タスクに挑戦する優れたパフォーマンスを示しています。
しかし、研究者は敵の例に弱いディープニューラルネットワークを発見した。
それ以来、敵対的な例に対して防御または検出する多くの方法が提案されているが、攻撃に依存しているか、新しい攻撃で効果がないことが示されている。
深層学習モデルが高精度かつ普遍性のある逆例を検出できるフィードバックフレームワークdafarを提案する。
DAFARは、ターゲットネットワーク、プラグインフィードバックネットワーク、およびオートエンコーダベースの検出器を含む比較的単純な構造を有する。
鍵となるアイデアは、ターゲットネットワークから抽出されたハイレベルな特徴をキャプチャし、フィードバックネットワークを使って入力を再構築することだ。
これら2つの部分はフィードバックオートエンコーダを構成する。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかな再構成エラー攻撃に直接変換する。
最後に、検出器は異常スコアを与え、再構成エラーに応じて入力が逆方向かどうかを判定する。
実験はMNISTおよびCIFAR-10データセット上で行われる。
実験結果から,DAFARは正統なサンプルの性能を損なうことなく,攻撃方法やパラメータの精度と普遍性が向上した。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - New Adversarial Image Detection Based on Sentiment Analysis [37.139957973240264]
敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
論文 参考訳(メタデータ) (2023-05-03T14:32:21Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Nowhere to Hide: A Lightweight Unsupervised Detector against Adversarial
Examples [14.332434280103667]
敵対的な例は、わずかながら悪質に作られた摂動を良心的なイメージに追加することによって生成される。
本稿では,AutoEncoderを用いたAdversarial Examples検出器を提案する。
AEAEは、最先端の攻撃に対して教師なしで安価であることを実証的に示す。
論文 参考訳(メタデータ) (2022-10-16T16:29:47Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Universal Adversarial Examples in Remote Sensing: Methodology and
Benchmark [17.13291434132985]
リモートセンシングデータに対して,新しいブラックボックス逆攻撃手法であるMixup-Attackと,その簡易な派生型Mixcut-Attackを提案する。
その単純さにもかかわらず、提案手法は、最先端のディープニューラルネットワークの大部分を欺く、転送可能な敵の例を生成することができる。
UAE-RSというデータセットは、リモートセンシングフィールドでブラックボックスの敵サンプルを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2022-02-14T21:52:45Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Self-Supervised Adversarial Example Detection by Disentangled
Representation [16.98476232162835]
判別器ネットワークが支援するオートエンコーダを,正しくペア化されたクラス/セマンティクス特徴と誤ったペアのクラス/セマンティクス特徴の両方から訓練し,良性と反例を再構築する。
これは逆例の振る舞いを模倣し、オートエンコーダの不要な一般化能力を減らすことができる。
本手法は,最先端の自己監視検出手法と比較して,様々な測定結果において優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-08T12:48:18Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Open-set Adversarial Defense [93.25058425356694]
オープンセット認識システムは敵攻撃に対して脆弱であることを示す。
本研究の目的は,OSAD(Open-Set Adrial Defense, Open-Set Adrial Defense)機構の必要性である。
本稿はOSAD問題に対する解決策として,OSDN(Open-Set Defense Network)を提案する。
論文 参考訳(メタデータ) (2020-09-02T04:35:33Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。