論文の概要: Guided Diffusion Model for Adversarial Purification
- arxiv url: http://arxiv.org/abs/2205.14969v1
- Date: Mon, 30 May 2022 10:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:19:36.296632
- Title: Guided Diffusion Model for Adversarial Purification
- Title(参考訳): 逆境浄化のための誘導拡散モデル
- Authors: Jinyi Wang, Zhaoyang Lyu, Dahua Lin, Bo Dai, Hongfei Fu
- Abstract要約: 敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
- 参考スコア(独自算出の注目度): 103.4596751105955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With wider application of deep neural networks (DNNs) in various algorithms
and frameworks, security threats have become one of the concerns. Adversarial
attacks disturb DNN-based image classifiers, in which attackers can
intentionally add imperceptible adversarial perturbations on input images to
fool the classifiers. In this paper, we propose a novel purification approach,
referred to as guided diffusion model for purification (GDMP), to help protect
classifiers from adversarial attacks. The core of our approach is to embed
purification into the diffusion denoising process of a Denoised Diffusion
Probabilistic Model (DDPM), so that its diffusion process could submerge the
adversarial perturbations with gradually added Gaussian noises, and both of
these noises can be simultaneously removed following a guided denoising
process. On our comprehensive experiments across various datasets, the proposed
GDMP is shown to reduce the perturbations raised by adversarial attacks to a
shallow range, thereby significantly improving the correctness of
classification. GDMP improves the robust accuracy by 5%, obtaining 90.1% under
PGD attack on the CIFAR10 dataset. Moreover, GDMP achieves 70.94% robustness on
the challenging ImageNet dataset.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)をさまざまなアルゴリズムやフレームワークに広く適用することで、セキュリティの脅威が懸念されている。
敵対的攻撃はDNNベースの画像分類器を妨害し、攻撃者は意図的に入力画像に不可避な逆転を付加して分類器を騙すことができる。
本稿では, 分類器を敵の攻撃から守るために, 誘導拡散モデル (gdmp) と呼ばれる新しい浄化手法を提案する。
提案手法の核となるのは, 拡散確率モデル (DDPM) の拡散復調過程に純化を埋め込むことであり, 拡散過程はガウス雑音を徐々に加えた逆方向の摂動を吸収し, これらのノイズは誘導復調過程を経て同時に除去することができる。
各種データセットの包括的実験において,提案したGDMPは,敵対攻撃によって引き起こされた摂動を浅い範囲に低減し,分類の正しさを著しく向上させる。
GDMPはロバストな精度を5%改善し、CIFAR10データセットに対するPGD攻撃で90.1%を得る。
さらに、GDMPは、挑戦的なImageNetデータセット上で70.94%の堅牢性を達成する。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - MimicDiffusion: Purifying Adversarial Perturbation via Mimicking Clean
Diffusion Model [8.695439655048634]
拡散に基づく逆方向の浄化は、拡散モデルを用いて敵方向の攻撃に対してクリーンな画像を生成することに焦点を当てる。
そこで我々は,拡散モデルの生成過程を直接近似し,クリーンな画像を入力としてミミディフュージョン(MimicDiffusion)を提案する。
3つの画像データセットの実験により、MimicDiffusionは最先端のベースラインよりも大幅にパフォーマンスが向上していることが示された。
論文 参考訳(メタデータ) (2023-12-08T02:32:47Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Denoising Diffusion Probabilistic Models as a Defense against
Adversarial Attacks [0.0]
本研究は,敵攻撃に対する浄化手法として,拡散確率モデル(DDPM)の性能を評価する。
リンパ節郭清におけるPatchCamelyonデータセットのアプローチについて検討し,その精度を88%まで向上させた。
論文 参考訳(メタデータ) (2023-01-17T13:27:53Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。