論文の概要: Gradient-Free Adversarial Purification with Diffusion Models
- arxiv url: http://arxiv.org/abs/2501.13336v2
- Date: Tue, 16 Sep 2025 08:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 15:46:32.535939
- Title: Gradient-Free Adversarial Purification with Diffusion Models
- Title(参考訳): 拡散モデルによるグラディエントフリー逆流浄化
- Authors: Xuelong Dai, Dong Wang, Xiuzhen Cheng, Bin Xiao,
- Abstract要約: 敵の訓練と敵の浄化は、敵の攻撃に対するモデル堅牢性を高めるために広く用いられている。
本稿では,摂動型攻撃と非制限型攻撃の両方に対抗し,効果的かつ効率的な防御フレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.591092007972325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training and adversarial purification are two widely used defense strategies for enhancing model robustness against adversarial attacks. However, adversarial training requires costly retraining, while adversarial purification often suffers from low efficiency. More critically, existing defenses are primarily designed under the perturbation-based adversarial threat model, which is ineffective against recently introduced unrestricted adversarial attacks. In this paper, we propose an effective and efficient defense framework that counters both perturbation-based and unrestricted adversarial attacks. Our approach is motivated by the observation that adversarial examples typically lie near the decision boundary and are highly sensitive to pixel-level perturbations. To address this, we introduce adversarial anti-aliasing, a preprocessing technique that mitigates adversarial noise by reducing the magnitude of pixel-level perturbations. In addition, we propose adversarial super-resolution, which leverages prior knowledge from clean datasets to benignly restore high-quality images from adversarially degraded ones. Unlike image synthesis methods that generate entirely new images, adversarial super-resolution focuses on image restoration, making it more suitable for purification. Importantly, both techniques require no additional training and are computationally efficient since they do not rely on gradient computations. To further improve robustness across diverse datasets, we introduce a contrastive learning-based adversarial deblurring fine-tuning method. By incorporating adversarial priors during fine-tuning on the target dataset, this method enhances purification effectiveness without the need to retrain diffusion models.
- Abstract(参考訳): 敵の訓練と敵の浄化は、敵の攻撃に対するモデル堅牢性を高めるために広く使われている2つの防衛戦略である。
しかし、敵の訓練にはコストがかかるが、敵の浄化は効率の低下に悩まされることが多い。
より重要なことに、既存の防御は、主に摂動に基づく敵の脅威モデルの下で設計されており、これは最近導入された非制限の敵の攻撃に対して効果がない。
本稿では,摂動型攻撃と非制限型攻撃の両方に対抗し,効果的かつ効率的な防御フレームワークを提案する。
我々のアプローチは、通常、反対例は決定境界付近にあり、ピクセルレベルの摂動に非常に敏感である、という観察に動機付けられている。
この問題に対処するために,画素レベルの摂動の大きさを小さくすることで,対向雑音を緩和する前処理技術である対向アンチエイリアシングを導入する。
さらに、クリーンなデータセットからの事前の知識を活用して、逆向きに劣化した画像から高品質な画像を鮮明に復元する逆超解法を提案する。
全く新しい画像を生成する画像合成法とは異なり、逆超解像は画像復元に重点を置いており、精製に適している。
重要なことは、どちらの手法も追加の訓練を必要とせず、勾配計算に頼らずに計算効率が良いことである。
多様なデータセット間のロバスト性をさらに向上するために,逆学習に基づく逆方向の微調整手法を導入する。
本手法は, ターゲットデータセットの微調整中に, 逆方向の先行を組み込むことで, 拡散モデルの再学習を必要とせずに, 浄化効率を向上させる。
関連論文リスト
- Test-time Adversarial Defense with Opposite Adversarial Path and High Attack Time Cost [5.197034517903854]
対向対向経路(OAP)に沿った拡散に基づく新しい対向防御法について検討する。
我々は、敵攻撃に抵抗するために、事前訓練されたモデルに差し込むことができる浄化器を提案する。
論文 参考訳(メタデータ) (2024-10-22T08:32:17Z) - Fast Preemption: Forward-Backward Cascade Learning for Efficient and Transferable Proactive Adversarial Defense [13.252842556505174]
ディープラーニング技術は、敵の攻撃に敏感なため、信頼できないものになっている。
我々は、メディアを前もって保護することによる先進的な戦略を考案した。
われわれは、ホワイトボックス適応的回帰攻撃(英語版)の知識を生かした最初の方法も考案した。
論文 参考訳(メタデータ) (2024-07-22T10:23:44Z) - MPAT: Building Robust Deep Neural Networks against Textual Adversarial
Attacks [4.208423642716679]
本稿では,敵対的攻撃に対する堅牢な深層ニューラルネットワーク構築のための悪質な摂動に基づく敵対的訓練法を提案する。
具体的には、悪意のある摂動を伴う敵例を生成するために、多段階の悪意のあるサンプル生成戦略を構築する。
本研究では, 目標達成のために, 目標達成のための新たな訓練目標関数を, 本来のタスクの性能を損なうことなく採用する。
論文 参考訳(メタデータ) (2024-02-29T01:49:18Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Language Guided Adversarial Purification [3.9931474959554496]
生成モデルを用いた対向浄化は、強い対向防御性能を示す。
新しいフレームワーク、Language Guided Adversarial Purification (LGAP)は、事前訓練された拡散モデルとキャプションジェネレータを利用する。
論文 参考訳(メタデータ) (2023-09-19T06:17:18Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。