論文の概要: Towards Better Adversarial Purification via Adversarial Denoising Diffusion Training
- arxiv url: http://arxiv.org/abs/2404.14309v1
- Date: Mon, 22 Apr 2024 16:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:27:39.599459
- Title: Towards Better Adversarial Purification via Adversarial Denoising Diffusion Training
- Title(参考訳): 対人拡散訓練によるより良い対人浄化に向けて
- Authors: Yiming Liu, Kezhao Liu, Yao Xiao, Ziyi Dong, Xiaogang Xu, Pengxu Wei, Liang Lin,
- Abstract要約: 拡散型浄化(DBP)は、敵の攻撃を防御するための有望なアプローチとして浮上している。
従来,DBPモデルのロバスト性評価には疑わしい手法が用いられてきた。
本稿では,DBPモデルの堅牢性向上を目的としたADDT(Adversarial Denoising Diffusion Training)を提案する。
- 参考スコア(独自算出の注目度): 65.10019978876863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, diffusion-based purification (DBP) has emerged as a promising approach for defending against adversarial attacks. However, previous studies have used questionable methods to evaluate the robustness of DBP models, their explanations of DBP robustness also lack experimental support. We re-examine DBP robustness using precise gradient, and discuss the impact of stochasticity on DBP robustness. To better explain DBP robustness, we assess DBP robustness under a novel attack setting, Deterministic White-box, and pinpoint stochasticity as the main factor in DBP robustness. Our results suggest that DBP models rely on stochasticity to evade the most effective attack direction, rather than directly countering adversarial perturbations. To improve the robustness of DBP models, we propose Adversarial Denoising Diffusion Training (ADDT). This technique uses Classifier-Guided Perturbation Optimization (CGPO) to generate adversarial perturbation through guidance from a pre-trained classifier, and uses Rank-Based Gaussian Mapping (RBGM) to convert adversarial pertubation into a normal Gaussian distribution. Empirical results show that ADDT improves the robustness of DBP models. Further experiments confirm that ADDT equips DBP models with the ability to directly counter adversarial perturbations.
- Abstract(参考訳): 近年, 拡散型浄化法(DBP)は, 敵対的攻撃に対する防御手段として有望なアプローチとして浮上している。
しかし、従来の研究ではDBPモデルのロバスト性を評価するために疑わしい手法が用いられており、DBPのロバスト性に関する説明も実験的な支援を欠いている。
精度勾配を用いたDBPロバスト性の再検討を行い,DBPロバスト性に対する確率性の影響について検討した。
DBPのロバスト性をよりよく説明するために、新しい攻撃条件、決定論的ホワイトボックス、およびピンポイント確率性をDBPロバスト性の主要な要因として評価する。
以上の結果から,DBPモデルは対向的摂動に逆らうのではなく,最も効果的な攻撃方向を避けるために確率に依存することが示唆された。
DBPモデルのロバスト性を改善するため,Adversarial Denoising Diffusion Training (ADDT)を提案する。
この手法は、CGPO(Classifier-Guided Perturbation Optimization)を用いて、事前訓練された分類器からの誘導により、対向摂動を生成するとともに、ランクベースガウスマッピング(RBGM)を用いて、対向の摂動を正規のガウス分布に変換する。
実験の結果,ADDTはDBPモデルのロバスト性を向上させることがわかった。
さらなる実験により、ADDTはDBPモデルと直接対向摂動に対処する能力を備えていることが確認された。
関連論文リスト
- Unlocking The Potential of Adaptive Attacks on Diffusion-Based Purification [20.15955997832192]
Diffusion-based purification (DBP)は、敵対的事例(AE)に対する防御である
我々は、この主張を再考し、防衛を通じて損失勾配を後退させる勾配に基づく戦略に焦点をあてる。
このような最適化手法はDBPのコア基盤を無効にし、その代わりに悪意のあるサンプル上の分布に精製された出力を制限する。
論文 参考訳(メタデータ) (2024-11-25T17:30:32Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - ADBM: Adversarial diffusion bridge model for reliable adversarial purification [21.2538921336578]
近年,拡散型浄化法(DiffPure)は,敵の事例に対する効果的な防御法として認識されている。
DiffPureは, 元の事前学習拡散モデルを用いて, 逆流浄化を最適に行う。
本稿では,ADBMと呼ばれる新しいAdrialversa Diffusion Bridge Modelを提案する。
論文 参考訳(メタデータ) (2024-08-01T06:26:05Z) - Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Reconstructing Graph Diffusion History from a Single Snapshot [87.20550495678907]
A single SnapsHot (DASH) から拡散履歴を再構築するための新しいバリセンターの定式化を提案する。
本研究では,拡散パラメータ推定のNP硬度により,拡散パラメータの推定誤差が避けられないことを証明する。
また、DITTO(Diffusion hitting Times with Optimal proposal)という効果的な解法も開発している。
論文 参考訳(メタデータ) (2023-06-01T09:39:32Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。