論文の概要: Adversarial Guided Diffusion Models for Adversarial Purification
- arxiv url: http://arxiv.org/abs/2403.16067v5
- Date: Tue, 11 Mar 2025 08:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 12:20:06.764878
- Title: Adversarial Guided Diffusion Models for Adversarial Purification
- Title(参考訳): 逆方向誘導拡散モデルによる逆方向浄化
- Authors: Guang Lin, Zerui Tao, Jianhai Zhang, Toshihisa Tanaka, Qibin Zhao,
- Abstract要約: 拡散モデル (DM) に基づく対向浄化 (AP) は強力な防御法であることが証明された。
本稿では,十分な意味情報を含む逆方向誘導拡散モデル (AGDM) を提案する。
- 参考スコア(独自算出の注目度): 28.313494459818497
- License:
- Abstract: Diffusion model (DM) based adversarial purification (AP) has proven to be a powerful defense method that can remove adversarial perturbations and generate a purified example without threats. In principle, the pre-trained DMs can only ensure that purified examples conform to the same distribution of the training data, but it may inadvertently compromise the semantic information of input examples, leading to misclassification of purified examples. Recent advancements introduce guided diffusion techniques to preserve semantic information while removing the perturbations. However, these guidances often rely on distance measures between purified examples and diffused examples, which can also preserve perturbations in purified examples. To further unleash the robustness power of DM-based AP, we propose an adversarial guided diffusion model (AGDM) by introducing a novel adversarial guidance that contains sufficient semantic information but does not explicitly involve adversarial perturbations. The guidance is modeled by an auxiliary neural network obtained with adversarial training, considering the distance in the latent representations rather than at the pixel-level values. Extensive experiments are conducted on CIFAR-10, CIFAR-100 and ImageNet to demonstrate that our method is effective for simultaneously maintaining semantic information and removing the adversarial perturbations. In addition, comprehensive comparisons show that our method significantly enhances the robustness of existing DM-based AP, with an average robust accuracy improved by up to 7.30% on CIFAR-10.
- Abstract(参考訳): 拡散モデル (DM) に基づく対向的浄化 (AP) は, 対向的摂動を除去し, 脅威のない浄化例を生成する強力な防御法であることが証明されている。
原則として、事前訓練されたDMは、精製されたサンプルがトレーニングデータの同じ分布に適合することを保証するのみであるが、入力されたサンプルのセマンティック情報を不注意に妥協し、精製されたサンプルの誤分類につながる可能性がある。
近年の進歩は、摂動を除去しながら意味情報を保存するための誘導拡散技術を導入している。
しかしながら、これらのガイダンスは、しばしば、精製例と拡散例の間の距離測定に依存し、精製例における摂動を保存できる。
DMベースAPのロバスト性向上のために,十分な意味情報を含む新規な逆方向誘導を導入することで,逆方向誘導拡散モデル(AGDM)を提案する。
このガイダンスは、画素レベルの値ではなく、潜在表現における距離を考慮して、逆行訓練によって得られる補助ニューラルネットワークによってモデル化される。
CIFAR-10, CIFAR-100, ImageNet で大規模な実験を行い, 本手法が意味情報の同時維持と対向的摂動の除去に有効であることを実証した。
さらに,本手法は既存のDMベースAPのロバスト性を大幅に向上し,CIFAR-10では平均ロバスト精度が7.30%向上した。
関連論文リスト
- Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - How Robust Are Energy-Based Models Trained With Equilibrium Propagation? [4.374837991804085]
敵の訓練は、敵の攻撃に対する現在の最先端の防御である。
クリーンな入力に対するモデルの精度を低くし、計算コストも高く、自然騒音に対する堅牢性も低い。
対照的に、エネルギーベースモデル(EBM)は各層から前の層へのフィードバック接続を組み込んでおり、繰り返し発生する深層構造をもたらす。
論文 参考訳(メタデータ) (2024-01-21T16:55:40Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Robust Classification via a Single Diffusion Model [37.46217654590878]
ロバスト拡散(英: Robust Diffusion、RDC)は、事前学習された拡散モデルから構築され、逆向きに堅牢な生成型分類器である。
RDCは75.67%で様々な$ell_infty$標準有界適応攻撃に対して、CIFAR-10で$epsilon_infty/255$で堅牢な精度を達成した。
論文 参考訳(メタデータ) (2023-05-24T15:25:19Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。