論文の概要: Guided Diffusion Model for Adversarial Purification
- arxiv url: http://arxiv.org/abs/2205.14969v1
- Date: Mon, 30 May 2022 10:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:19:36.296632
- Title: Guided Diffusion Model for Adversarial Purification
- Title(参考訳): 逆境浄化のための誘導拡散モデル
- Authors: Jinyi Wang, Zhaoyang Lyu, Dahua Lin, Bo Dai, Hongfei Fu
- Abstract要約: 敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
- 参考スコア(独自算出の注目度): 103.4596751105955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With wider application of deep neural networks (DNNs) in various algorithms
and frameworks, security threats have become one of the concerns. Adversarial
attacks disturb DNN-based image classifiers, in which attackers can
intentionally add imperceptible adversarial perturbations on input images to
fool the classifiers. In this paper, we propose a novel purification approach,
referred to as guided diffusion model for purification (GDMP), to help protect
classifiers from adversarial attacks. The core of our approach is to embed
purification into the diffusion denoising process of a Denoised Diffusion
Probabilistic Model (DDPM), so that its diffusion process could submerge the
adversarial perturbations with gradually added Gaussian noises, and both of
these noises can be simultaneously removed following a guided denoising
process. On our comprehensive experiments across various datasets, the proposed
GDMP is shown to reduce the perturbations raised by adversarial attacks to a
shallow range, thereby significantly improving the correctness of
classification. GDMP improves the robust accuracy by 5%, obtaining 90.1% under
PGD attack on the CIFAR10 dataset. Moreover, GDMP achieves 70.94% robustness on
the challenging ImageNet dataset.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)をさまざまなアルゴリズムやフレームワークに広く適用することで、セキュリティの脅威が懸念されている。
敵対的攻撃はDNNベースの画像分類器を妨害し、攻撃者は意図的に入力画像に不可避な逆転を付加して分類器を騙すことができる。
本稿では, 分類器を敵の攻撃から守るために, 誘導拡散モデル (gdmp) と呼ばれる新しい浄化手法を提案する。
提案手法の核となるのは, 拡散確率モデル (DDPM) の拡散復調過程に純化を埋め込むことであり, 拡散過程はガウス雑音を徐々に加えた逆方向の摂動を吸収し, これらのノイズは誘導復調過程を経て同時に除去することができる。
各種データセットの包括的実験において,提案したGDMPは,敵対攻撃によって引き起こされた摂動を浅い範囲に低減し,分類の正しさを著しく向上させる。
GDMPはロバストな精度を5%改善し、CIFAR10データセットに対するPGD攻撃で90.1%を得る。
さらに、GDMPは、挑戦的なImageNetデータセット上で70.94%の堅牢性を達成する。
関連論文リスト
- Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - SAR Despeckling using a Denoising Diffusion Probabilistic Model [52.25981472415249]
スペックルの存在は画像品質を劣化させ、SAR画像理解アプリケーションの性能に悪影響を及ぼす。
本稿では,SAR脱種のための拡散確率モデルであるSAR-DDPMを紹介する。
提案手法は, 最先端の切り離し法と比較して, 定量化と定性化の両面で有意な改善を実現している。
論文 参考訳(メタデータ) (2022-06-09T14:00:26Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Distributionally Robust Multiclass Classification and Applications in
Deep CNN Image Classifiers [4.361526134899725]
マルチクラスロジスティック回帰(MLR)のための分布ロバスト最適化(DRO)の定式化を開発する。
経験的リスク最小化(ERM)と比較して,誤差率を最大49.49%,損失を最大68.93%向上させることができることを示す。
また,トレーニングセット内の摂動画像の少ない場合には,経験的リスク最小化と比較して49.49%の誤差率,最大68.93%の損失率を向上できることを示した。
論文 参考訳(メタデータ) (2021-09-27T02:58:19Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Efficient detection of adversarial images [2.6249027950824506]
画像の画素値は外部攻撃者によって修正されるため、人間の目にはほとんど見えない。
本稿では,修正画像の検出を容易にする新しい前処理手法を提案する。
このアルゴリズムの適応バージョンでは、ランダムな数の摂動が適応的に選択される。
論文 参考訳(メタデータ) (2020-07-09T05:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。