論文の概要: NADD: Amplifying Noise for Effective Diffusion-based Adversarial Purification
- arxiv url: http://arxiv.org/abs/2601.01109v1
- Date: Sat, 03 Jan 2026 08:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.034524
- Title: NADD: Amplifying Noise for Effective Diffusion-based Adversarial Purification
- Title(参考訳): NADD:有効拡散型対向浄化のための増幅ノイズ
- Authors: David D. Nguyen, The-Anh Ta, Yansong Gao, Alsharif Abuadbba,
- Abstract要約: 拡散に基づく生成モデルと分類器を組み合わせる戦略は、対向ロバストネスベンチマークで最先端の性能を実証し続けている。
これは、データ分布における高密度領域を同定し、入力からの逆流を浄化する拡散モデルの能力を利用する。
既存の拡散に基づく浄化防御は、拡散過程で使用される低レベルのノイズのため、破壊的に遅く、ロバスト性に制限されている。
本稿では, 逆拡散過程において, 対向性摂動を減らし, 付加雑音を発生させる新しいサンプリング法を提案する。
- 参考スコア(独自算出の注目度): 15.051303733999392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The strategy of combining diffusion-based generative models with classifiers continues to demonstrate state-of-the-art performance on adversarial robustness benchmarks. Known as adversarial purification, this exploits a diffusion model's capability of identifying high density regions in data distributions to purify adversarial perturbations from inputs. However, existing diffusion-based purification defenses are impractically slow and limited in robustness due to the low levels of noise used in the diffusion process. This low noise design aims to preserve the semantic features of the original input, thereby minimizing utility loss for benign inputs. Our findings indicate that systematic amplification of noise throughout the diffusion process improves the robustness of adversarial purification. However, this approach presents a key challenge, as noise levels cannot be arbitrarily increased without risking distortion of the input. To address this key problem, we introduce high levels of noise during the forward process and propose the ring proximity correction to gradually eliminate adversarial perturbations whilst closely preserving the original data sample. As a second contribution, we propose a new stochastic sampling method which introduces additional noise during the reverse diffusion process to dilute adversarial perturbations. Without relying on gradient obfuscation, these contributions result in a new robustness accuracy record of 44.23% on ImageNet using AutoAttack ($\ell_{\infty}=4/255$), an improvement of +2.07% over the previous best work. Furthermore, our method reduces inference time to 1.08 seconds per sample on ImageNet, a $47\times$ improvement over the existing state-of-the-art approach, making it far more practical for real-world defensive scenarios.
- Abstract(参考訳): 拡散に基づく生成モデルと分類器を組み合わせる戦略は、対向ロバストネスベンチマークにおける最先端の性能を実証し続けている。
これは、データ分布における高密度領域を同定し、入力からの逆流を浄化する拡散モデルの能力を利用する。
しかし, 既存の拡散処理による浄化防御は, 拡散過程における低レベルのノイズのため, 破壊的に遅く, 強靭性に制限されている。
この低雑音設計は、元の入力のセマンティックな特徴を保ち、良質な入力に対する実用的損失を最小限に抑えることを目的としている。
本研究は, 拡散過程における騒音の系統的増幅が, 対向浄化の堅牢性を向上させることを示唆するものである。
しかし、入力の歪みを危険にさらすことなく、ノイズレベルを任意に増大させることができないため、このアプローチは重要な課題となる。
この問題に対処するために,前処理中に高レベルのノイズを導入し,元のデータサンプルを密に保存しながら,対向的摂動を緩やかに除去するリング近接補正を提案する。
第2の貢献として,逆拡散過程に付加的な雑音を導入し,対向性摂動を希釈する確率的サンプリング法を提案する。
勾配の難読化に頼らず、これらの貢献により、AutoAttack ($\ell_{\infty}=4/255$を使用してImageNet上で44.23%の新しいロバストネスの精度記録が得られた。
さらに,本手法は,既存の最先端手法よりも4,7\times$の改善を実現し,実世界の防御シナリオにおいてはるかに実用的であるImageNetにおいて,1サンプルあたりの推論時間を1.08秒に短縮する。
関連論文リスト
- Robustifying Diffusion-Denoised Smoothing Against Covariate Shift [3.2010481260411834]
本稿では,デノナイズ拡散モデルの付加雑音に着目した新しい対向目的関数を提案する。
本手法は,3つの標準分類ベンチマークにおいて,認証精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-09-13T17:27:37Z) - A self-supervised learning approach for denoising autoregressive models with additive noise: finite and infinite variance cases [0.9217021281095907]
応用においては、自己回帰信号は加法雑音によってしばしば破損する。
本稿では,付加的な雑音崩壊型自己回帰モデルを示す自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T14:46:56Z) - DBLP: Noise Bridge Consistency Distillation For Efficient And Reliable Adversarial Purification [3.8870795921263723]
拡散ブリッジ蒸留法 (DBLP) は, 対向浄化のための新規かつ効率的な拡散ベースフレームワークである。
DBLPは、堅牢な精度、優れた画像品質、約0.2秒の推論時間を実現し、リアルタイムの対向的浄化に向けた重要なステップとなる。
論文 参考訳(メタデータ) (2025-08-01T11:47:36Z) - Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - DiffusionAD: Norm-guided One-step Denoising Diffusion for Anomaly Detection [80.20339155618612]
DiffusionADは、再構成サブネットワークとセグメンテーションサブネットワークからなる、新しい異常検出パイプラインである。
高速なワンステップデノゲーションパラダイムは、同等の再現品質を維持しながら、数百倍の加速を達成する。
異常の出現の多様性を考慮し、複数のノイズスケールの利点を統合するためのノルム誘導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:14:06Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。