論文の概要: How Do Diffusion Models Improve Adversarial Robustness?
- arxiv url: http://arxiv.org/abs/2505.22839v1
- Date: Wed, 28 May 2025 20:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.522094
- Title: How Do Diffusion Models Improve Adversarial Robustness?
- Title(参考訳): 拡散モデルは対向ロバスト性を改善するか?
- Authors: Liu Yuezhang, Xue-Xin Wei,
- Abstract要約: 本研究では,拡散モデルによる対向ロバスト性の改善について検討する。
精製された画像は拡散モデルの内部ランダム性に大きく影響されていることがわかった。
本研究は,拡散型精製のメカニズムに関する新たな知見を提供する。
- 参考スコア(独自算出の注目度): 3.729242965449096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent findings suggest that diffusion models significantly enhance empirical adversarial robustness. While some intuitive explanations have been proposed, the precise mechanisms underlying these improvements remain unclear. In this work, we systematically investigate how and how well diffusion models improve adversarial robustness. First, we observe that diffusion models intriguingly increase, rather than decrease, the $\ell_p$ distance to clean samples--challenging the intuition that purification denoises inputs closer to the original data. Second, we find that the purified images are heavily influenced by the internal randomness of diffusion models, where a compression effect arises within each randomness configuration. Motivated by this observation, we evaluate robustness under fixed randomness and find that the improvement drops to approximately 24% on CIFAR-10--substantially lower than prior reports approaching 70%. Importantly, we show that this remaining robustness gain strongly correlates with the model's ability to compress the input space, revealing the compression rate as a reliable robustness indicator without requiring gradient-based analysis. Our findings provide novel insights into the mechanisms underlying diffusion-based purification, and offer guidance for developing more effective and principled adversarial purification systems.
- Abstract(参考訳): 近年の研究では,拡散モデルにより経験的対角強靭性が著しく向上することが示唆された。
いくつかの直感的な説明が提案されているが、これらの改善の根底にある正確なメカニズムはいまだ不明である。
本研究では,拡散モデルが対向ロバスト性をどのように改善するかを系統的に検討する。
まず, 拡散モデルでは, 試料の洗浄に要する$\ell_p$距離を減少させるよりも, 拡散モデルが興味深いほど増加し, 元のデータに近づいた入力を浄化する直感を阻害する。
第2に,各ランダム性構成内に圧縮効果が生じる拡散モデルの内部ランダム性の影響が,精製画像に強く影響されることを見出した。
その結果,CIFAR-10では約24%に低下し,従来報告よりも約70%低値となった。
重要なことは、この残留ロバスト性向上は、モデルが入力空間を圧縮する能力と強く相関していることを示し、その圧縮率を勾配解析を必要とせずに信頼性の高いロバスト性指標として明らかにする。
本研究は, 拡散法に基づく浄化機構の解明と, より効果的で原則化された対向浄化システム開発のためのガイダンスを提供する。
関連論文リスト
- Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z) - Bias in Pruned Vision Models: In-Depth Analysis and Countermeasures [93.17009514112702]
ニューラルネットワークのパラメータのかなりの部分集合をゼロに設定するプルーニングは、モデル圧縮の最も一般的な方法の1つである。
この現象の既存の証拠にもかかわらず、ニューラルネットワークのプルーニングと誘導バイアスの関係はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-25T07:42:06Z) - DensePure: Understanding Diffusion Models towards Adversarial Robustness [110.84015494617528]
拡散モデルの特性を解析し,それらが証明された堅牢性を高める条件を確立する。
事前訓練されたモデル(すなわち分類器)の信頼性向上を目的とした新しいDensePure法を提案する。
このロバストな領域は多重凸集合の和であり、以前の研究で特定されたロバストな領域よりもはるかに大きい可能性が示されている。
論文 参考訳(メタデータ) (2022-11-01T08:18:07Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。