論文の概要: MimicDiffusion: Purifying Adversarial Perturbation via Mimicking Clean
Diffusion Model
- arxiv url: http://arxiv.org/abs/2312.04802v1
- Date: Fri, 8 Dec 2023 02:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:23:03.184029
- Title: MimicDiffusion: Purifying Adversarial Perturbation via Mimicking Clean
Diffusion Model
- Title(参考訳): Mimic Diffusion:清浄拡散モデルによる対側摂動の浄化
- Authors: Kaiyu Song, Hanjiang Lai
- Abstract要約: 拡散に基づく逆方向の浄化は、拡散モデルを用いて敵方向の攻撃に対してクリーンな画像を生成することに焦点を当てる。
そこで我々は,拡散モデルの生成過程を直接近似し,クリーンな画像を入力としてミミディフュージョン(MimicDiffusion)を提案する。
3つの画像データセットの実験により、MimicDiffusionは最先端のベースラインよりも大幅にパフォーマンスが向上していることが示された。
- 参考スコア(独自算出の注目度): 8.695439655048634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to adversarial perturbation, where
an imperceptible perturbation is added to the image that can fool the DNNs.
Diffusion-based adversarial purification focuses on using the diffusion model
to generate a clean image against such adversarial attacks. Unfortunately, the
generative process of the diffusion model is also inevitably affected by
adversarial perturbation since the diffusion model is also a deep network where
its input has adversarial perturbation. In this work, we propose
MimicDiffusion, a new diffusion-based adversarial purification technique, that
directly approximates the generative process of the diffusion model with the
clean image as input. Concretely, we analyze the differences between the guided
terms using the clean image and the adversarial sample. After that, we first
implement MimicDiffusion based on Manhattan distance. Then, we propose two
guidance to purify the adversarial perturbation and approximate the clean
diffusion model. Extensive experiments on three image datasets including
CIFAR-10, CIFAR-100, and ImageNet with three classifier backbones including
WideResNet-70-16, WideResNet-28-10, and ResNet50 demonstrate that
MimicDiffusion significantly performs better than the state-of-the-art
baselines. On CIFAR-10, CIFAR-100, and ImageNet, it achieves 92.67\%, 61.35\%,
and 61.53\% average robust accuracy, which are 18.49\%, 13.23\%, and 17.64\%
higher, respectively. The code is available in the supplementary material.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の摂動に対して脆弱であり、DNNを騙すイメージに知覚できない摂動が付加される。
拡散に基づく対向浄化は、拡散モデルを用いてそのような対向攻撃に対してクリーンな画像を生成することに焦点を当てる。
残念ながら、拡散モデルは、その入力が逆摂動を持つ深いネットワークであるため、拡散モデルの生成過程は、必然的に逆摂動に影響される。
本研究では,拡散モデルの生成過程とクリーンな画像を直接入力として近似する,拡散に基づく新たな逆浄化手法であるMimicDiffusionを提案する。
具体的には, クリーン画像と逆サンプルを用いて, 誘導語の違いを分析した。
その後、マンハッタン距離に基づいてMimicDiffusionを実装した。
次に, 逆摂動を浄化するための2つの指針を提案し, クリーン拡散モデルを近似する。
CIFAR-10、CIFAR-100、ImageNetを含む3つの画像データセットに対する大規模な実験では、WideResNet-70-16、WideResNet-28-10、ResNet50を含む3つの分類器バックボーンにより、MimicDiffusionは最先端のベースラインよりも大幅にパフォーマンスが向上することを示した。
CIFAR-10, CIFAR-100, ImageNetでは92.67\%, 61.35\%, 61.53\%の平均ロバスト精度は18.49\%, 13.23\%, 17.64\%である。
コードは補足資料で入手できる。
関連論文リスト
- Instant Adversarial Purification with Adversarial Consistency Distillation [1.224954637705144]
拡散モデルにおける1つのニューラル評価(NFE)における逆画像の浄化が可能な拡散に基づく浄化モデルであるOne Step Control Purification (OSCP)を提案する。
ImageNetの防衛成功率は74.19%で、精製ごとに0.1秒しか必要としない。
論文 参考訳(メタデータ) (2024-08-30T07:49:35Z) - Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Adaptive Clustering of Robust Semantic Representations for Adversarial
Image Purification [0.9203366434753543]
我々は、モデルに依存しず、目に見えない敵に対して汎用可能な、敵対攻撃に対する堅牢な防御を提案します。
本稿では,各クラスの潜在表現を抽出し,意味的類似性を持つ潜在表現を適応的にクラスタ化する。
我々は、逆空間表現と真のクラスタ分布の間の距離を最小化するために、潜空間表現を制限する新しいモデルを逆向きに訓練する。
論文 参考訳(メタデータ) (2021-04-05T21:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。