論文の概要: Frequency Centric Defense Mechanisms against Adversarial Examples
- arxiv url: http://arxiv.org/abs/2110.13935v1
- Date: Tue, 26 Oct 2021 18:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 13:03:29.829601
- Title: Frequency Centric Defense Mechanisms against Adversarial Examples
- Title(参考訳): 反対例に対する周波数心防御機構
- Authors: Sanket B. Shah, Param Raval, Harin Khakhi, Mehul S. Raval
- Abstract要約: Adversarial Example (AE) は、入力画像に小さな摂動を導入することで、畳み込みニューラルネットワークを騙すことを目的としている。
対向検知器を訓練し、対向効果を認知させることにより、防御を2つの方法で実証する。
- 参考スコア(独自算出の注目度): 1.0650780147044159
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial example (AE) aims at fooling a Convolution Neural Network by
introducing small perturbations in the input image.The proposed work uses the
magnitude and phase of the Fourier Spectrum and the entropy of the image to
defend against AE. We demonstrate the defense in two ways: by training an
adversarial detector and denoising the adversarial effect. Experiments were
conducted on the low-resolution CIFAR-10 and high-resolution ImageNet datasets.
The adversarial detector has 99% accuracy for FGSM and PGD attacks on the
CIFAR-10 dataset. However, the detection accuracy falls to 50% for
sophisticated DeepFool and Carlini & Wagner attacks on ImageNet. We overcome
the limitation by using autoencoder and show that 70% of AEs are correctly
classified after denoising.
- Abstract(参考訳): 本稿では,入力画像に小さな摂動を導入することで畳み込みニューラルネットワークを騙すことを目標とし,フーリエスペクトルの大きさと位相と,画像のエントロピーを用いてAEを防御する手法を提案する。
対向検知器の訓練と対向効果の認知という2つの方法による防御の実証を行った。
低分解能CIFAR-10と高分解能画像Netデータセットで実験を行った。
対向検出器は、CIFAR-10データセットに対するFGSMおよびPGD攻撃の99%の精度を持つ。
しかし、検出精度は、高度なDeepFoolとCarini & WagnerによるImageNet攻撃の50%に低下する。
オートエンコーダによる制限を克服し,AEsの70%が正常に分類されていることを示す。
関連論文リスト
- DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - New Adversarial Image Detection Based on Sentiment Analysis [37.139957973240264]
敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
論文 参考訳(メタデータ) (2023-05-03T14:32:21Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Nowhere to Hide: A Lightweight Unsupervised Detector against Adversarial
Examples [14.332434280103667]
敵対的な例は、わずかながら悪質に作られた摂動を良心的なイメージに追加することによって生成される。
本稿では,AutoEncoderを用いたAdversarial Examples検出器を提案する。
AEAEは、最先端の攻撃に対して教師なしで安価であることを実証的に示す。
論文 参考訳(メタデータ) (2022-10-16T16:29:47Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction [7.867922462470315]
DAFARは、ディープラーニングモデルにより、高い精度と普遍性で敵の例を検出することができる。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかなリコンストラクションエラー攻撃に直接変換する。
実験によると、DAFARは合法的なサンプルのパフォーマンスを失うことなく、人気があり、間違いなく最も先進的な攻撃に対して効果的です。
論文 参考訳(メタデータ) (2021-03-11T06:18:50Z) - Detection of Iterative Adversarial Attacks via Counter Attack [4.549831511476249]
ディープニューラルネットワーク(DNN)は、非構造化データを処理する強力なツールであることが証明されている。
画像のような高次元データの場合、それらは本質的に敵対的な攻撃に対して脆弱である。
本研究では、CW攻撃が検出器自体として使用できるという数学的証明を概説する。
論文 参考訳(メタデータ) (2020-09-23T21:54:36Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。