論文の概要: Universal Adversarial Defense in Remote Sensing Based on Pre-trained
Denoising Diffusion Models
- arxiv url: http://arxiv.org/abs/2307.16865v2
- Date: Wed, 2 Aug 2023 14:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 10:11:25.590898
- Title: Universal Adversarial Defense in Remote Sensing Based on Pre-trained
Denoising Diffusion Models
- Title(参考訳): 事前学習型デノイング拡散モデルに基づくリモートセンシングにおけるユニバーサル・ディバイサル・ディフェンス
- Authors: Weikang Yu, Yonghao Xu, Pedram Ghamisi
- Abstract要約: 本稿では,事前学習拡散モデルを用いたRS画像(UAD-RS)における普遍的敵防衛手法を提案する。
UAD-RSは、現在一般的に存在する7つの敵の摂動に対する普遍的な防御により、最先端の敵の浄化アプローチより優れている。
- 参考スコア(独自算出の注目度): 14.50261153230204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved tremendous success in many remote
sensing (RS) applications, in which DNNs are vulnerable to adversarial
perturbations. Unfortunately, current adversarial defense approaches in RS
studies usually suffer from performance fluctuation and unnecessary re-training
costs due to the need for prior knowledge of the adversarial perturbations
among RS data. To circumvent these challenges, we propose a universal
adversarial defense approach in RS imagery (UAD-RS) using pre-trained diffusion
models to defend the common DNNs against multiple unknown adversarial attacks.
Specifically, the generative diffusion models are first pre-trained on
different RS datasets to learn generalized representations in various data
domains. After that, a universal adversarial purification framework is
developed using the forward and reverse process of the pre-trained diffusion
models to purify the perturbations from adversarial samples. Furthermore, an
adaptive noise level selection (ANLS) mechanism is built to capture the optimal
noise level of the diffusion model that can achieve the best purification
results closest to the clean samples according to their Frechet Inception
Distance (FID) in deep feature space. As a result, only a single pre-trained
diffusion model is needed for the universal purification of adversarial samples
on each dataset, which significantly alleviates the re-training efforts and
maintains high performance without prior knowledge of the adversarial
perturbations. Experiments on four heterogeneous RS datasets regarding scene
classification and semantic segmentation verify that UAD-RS outperforms
state-of-the-art adversarial purification approaches with a universal defense
against seven commonly existing adversarial perturbations. Codes and the
pre-trained models are available online (https://github.com/EricYu97/UAD-RS).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのリモートセンシング(RS)アプリケーションで大きな成功を収めており、DNNは敵の摂動に弱い。
残念なことに、rs研究における現在の敵対的防御アプローチは、通常、rsデータ間の敵対的摂動の事前知識を必要とするため、パフォーマンスのゆらぎと不要な再訓練コストに苦しむ。
これらの課題を回避するために,事前訓練した拡散モデルを用いたRS画像(UAD-RS)における普遍的敵防衛手法を提案し,複数の未知の敵攻撃から共通のDNNを保護する。
具体的には、生成拡散モデルはまず異なるrsデータセット上で事前学習され、様々なデータ領域における一般化表現を学習する。
その後, 事前学習した拡散モデルの前方および逆過程を用いて, 相反サンプルからの摂動を浄化する普遍的相反浄化フレームワークを開発した。
さらに,Frechet Inception Distance(FID)の深部特徴空間におけるクリーンサンプルに最も近い浄化結果が得られる拡散モデルの最適なノイズレベルを捉えるために,適応ノイズレベル選択(ANLS)機構を構築した。
その結果、各データセット上での対向サンプルの普遍的浄化には、1つの事前学習拡散モデルが必要となり、これは再学習の取り組みを著しく軽減し、対向的摂動の事前知識なしで高い性能を維持する。
シーン分類とセマンティックセグメンテーションに関する4つの異種RSデータセットの実験により、UAD-RSは、通常存在する7つの対向的摂動に対する普遍的な防御により、最先端の対向的浄化アプローチより優れていることが確認された。
コードと事前訓練されたモデルはオンラインで入手できる(https://github.com/EricYu97/UAD-RS)。
関連論文リスト
- Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations [10.140147080535224]
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
論文 参考訳(メタデータ) (2021-08-22T13:15:24Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Approximate Manifold Defense Against Multiple Adversarial Perturbations [16.03297438135047]
多様体ベースのディフェンスは、クリーンなデータ多様体に入力サンプルを投影する生成ネットワークを組み込む。
本研究では,画像分類のための近似多様体防衛機構であるRBF-CNNを考案する。
MNISTとCIFAR-10データセットの実験結果は、RBF-CNNが敵の訓練を必要とせずに複数の摂動に対して堅牢性を提供することを示している。
論文 参考訳(メタデータ) (2020-04-05T12:36:08Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Towards Rapid and Robust Adversarial Training with One-Step Attacks [0.0]
敵の訓練は、敵の攻撃に対するニューラルネットワークの堅牢性を高める最も成功した方法である。
本稿では,計算コストの低いFast Gradient Sign Methodを用いて,敵対的学習を可能にする2つのアイデアを提案する。
FGSMをベースとした対向訓練と併用したノイズ注入は、PGDによる対向訓練に匹敵する結果が得られ、より高速であることを示す。
論文 参考訳(メタデータ) (2020-02-24T07:28:43Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。