論文の概要: Guided Diffusion Model for Adversarial Purification from Random Noise
- arxiv url: http://arxiv.org/abs/2206.10875v1
- Date: Wed, 22 Jun 2022 06:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 02:40:49.221017
- Title: Guided Diffusion Model for Adversarial Purification from Random Noise
- Title(参考訳): ランダムノイズからの逆流浄化のための誘導拡散モデル
- Authors: Quanlin Wu, Hang Ye, Yuntian Gu
- Abstract要約: 本稿では,敵攻撃に対する強力な防御策として,新しい拡散浄化法を提案する。
我々のモデルは、CIFAR-10データセット上でPGD-L_inf攻撃(eps = 8/255)の下で、89.62%の堅牢な精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel guided diffusion purification approach to
provide a strong defense against adversarial attacks. Our model achieves 89.62%
robust accuracy under PGD-L_inf attack (eps = 8/255) on the CIFAR-10 dataset.
We first explore the essential correlations between unguided diffusion models
and randomized smoothing, enabling us to apply the models to certified
robustness. The empirical results show that our models outperform randomized
smoothing by 5% when the certified L2 radius r is larger than 0.5.
- Abstract(参考訳): 本稿では,敵攻撃に対する強力な防御手段として,新しい拡散浄化法を提案する。
pgd-l_inf攻撃(eps = 8/255)によるcifar-10データセットのロバスト精度は89.62%である。
まず,無誘導拡散モデルと無作為な平滑化との本質的な相関関係について検討し,そのモデルの有効性を検証した。
実験の結果, 認定l2半径rが0.5以上の場合, モデルがランダム化平滑化を5%上回った。
関連論文リスト
- Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Diffusion Models are Certifiably Robust Classifiers [40.31532959207627]
拡散分類器が$O(1)$ Lipschitznessを持ち、それらの証明された堅牢性を確立し、それらの固有のレジリエンスを実証する。
その結果、CIFAR-10の80%以上と70%以上は、それぞれ0.25未満の標準と0.5未満の逆方向の摂動下での強靭性が確認された。
論文 参考訳(メタデータ) (2024-02-04T02:09:18Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - DiffSmooth: Certifiably Robust Learning via Diffusion Models and Local
Smoothing [39.962024242809136]
そこでDiffSmoothを提案する。DiffSmoothは,まず拡散モデルを用いて対向的浄化を行い,その後,単純で効果的な局所的平滑化戦略により,精製したインスタンスを共通領域にマップする。
例えば、DiffSmoothはSOTA認証の精度を36.0%$から$ell$1.5$の53.0%$に改善している。
論文 参考訳(メタデータ) (2023-08-28T06:22:43Z) - Solving Diffusion ODEs with Optimal Boundary Conditions for Better Image Super-Resolution [82.50210340928173]
拡散モデルのランダム性は非効率性と不安定性をもたらすため、SR結果の品質を保証することは困難である。
本稿では,一連の拡散型SR手法の恩恵を受ける可能性を持つプラグアンドプレイサンプリング手法を提案する。
提案手法によりサンプリングされたSR結果の質は, 学習前の拡散ベースSRモデルと同一のランダム性を有する現在の手法でサンプリングされた結果の質より優れる。
論文 参考訳(メタデータ) (2023-05-24T17:09:54Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。