論文の概要: Towards Better Adversarial Purification via Adversarial Denoising Diffusion Training
- arxiv url: http://arxiv.org/abs/2404.14309v1
- Date: Mon, 22 Apr 2024 16:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:27:39.599459
- Title: Towards Better Adversarial Purification via Adversarial Denoising Diffusion Training
- Title(参考訳): 対人拡散訓練によるより良い対人浄化に向けて
- Authors: Yiming Liu, Kezhao Liu, Yao Xiao, Ziyi Dong, Xiaogang Xu, Pengxu Wei, Liang Lin,
- Abstract要約: 拡散型浄化(DBP)は、敵の攻撃を防御するための有望なアプローチとして浮上している。
従来,DBPモデルのロバスト性評価には疑わしい手法が用いられてきた。
本稿では,DBPモデルの堅牢性向上を目的としたADDT(Adversarial Denoising Diffusion Training)を提案する。
- 参考スコア(独自算出の注目度): 65.10019978876863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, diffusion-based purification (DBP) has emerged as a promising approach for defending against adversarial attacks. However, previous studies have used questionable methods to evaluate the robustness of DBP models, their explanations of DBP robustness also lack experimental support. We re-examine DBP robustness using precise gradient, and discuss the impact of stochasticity on DBP robustness. To better explain DBP robustness, we assess DBP robustness under a novel attack setting, Deterministic White-box, and pinpoint stochasticity as the main factor in DBP robustness. Our results suggest that DBP models rely on stochasticity to evade the most effective attack direction, rather than directly countering adversarial perturbations. To improve the robustness of DBP models, we propose Adversarial Denoising Diffusion Training (ADDT). This technique uses Classifier-Guided Perturbation Optimization (CGPO) to generate adversarial perturbation through guidance from a pre-trained classifier, and uses Rank-Based Gaussian Mapping (RBGM) to convert adversarial pertubation into a normal Gaussian distribution. Empirical results show that ADDT improves the robustness of DBP models. Further experiments confirm that ADDT equips DBP models with the ability to directly counter adversarial perturbations.
- Abstract(参考訳): 近年, 拡散型浄化法(DBP)は, 敵対的攻撃に対する防御手段として有望なアプローチとして浮上している。
しかし、従来の研究ではDBPモデルのロバスト性を評価するために疑わしい手法が用いられており、DBPのロバスト性に関する説明も実験的な支援を欠いている。
精度勾配を用いたDBPロバスト性の再検討を行い,DBPロバスト性に対する確率性の影響について検討した。
DBPのロバスト性をよりよく説明するために、新しい攻撃条件、決定論的ホワイトボックス、およびピンポイント確率性をDBPロバスト性の主要な要因として評価する。
以上の結果から,DBPモデルは対向的摂動に逆らうのではなく,最も効果的な攻撃方向を避けるために確率に依存することが示唆された。
DBPモデルのロバスト性を改善するため,Adversarial Denoising Diffusion Training (ADDT)を提案する。
この手法は、CGPO(Classifier-Guided Perturbation Optimization)を用いて、事前訓練された分類器からの誘導により、対向摂動を生成するとともに、ランクベースガウスマッピング(RBGM)を用いて、対向の摂動を正規のガウス分布に変換する。
実験の結果,ADDTはDBPモデルのロバスト性を向上させることがわかった。
さらなる実験により、ADDTはDBPモデルと直接対向摂動に対処する能力を備えていることが確認された。
関連論文リスト
- Robust Diffusion Models for Adversarial Purification [28.313494459818497]
拡散モデル(DM)に基づく対位法(AP)は、対位法トレーニング(AT)の最も強力な代替手段であることが示されている。
本稿では,事前訓練したDMとは独立に,敵対的指導を施した新しい頑健な逆過程を提案する。
この堅牢なガイダンスは、よりセマンティックなコンテンツを保持する純粋化された例を生成するだけでなく、DMの正確でロバストなトレードオフを軽減することができる。
論文 参考訳(メタデータ) (2024-03-24T08:34:08Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Direct Diffusion Bridge using Data Consistency for Inverse Problems [65.04689839117692]
拡散モデルに基づく逆問題解法は優れた性能を示したが、速度は制限されている。
いくつかの最近の研究は、拡散プロセスを構築し、クリーンで破損したものを直接ブリッジすることでこの問題を緩和しようと試みている。
微調整を必要とせずにデータの一貫性を強制する改良された推論手順を提案する。
論文 参考訳(メタデータ) (2023-05-31T12:51:10Z) - Causal Information Bottleneck Boosts Adversarial Robustness of Deep
Neural Network [3.819052032134146]
情報ボトルネック (IB) 法は, 深層学習における敵対的攻撃に対する有効な防御方法である。
因果推論をIBフレームワークに組み込んで、そのような問題を緩和する。
本手法は,複数の敵攻撃に対してかなりの堅牢性を示す。
論文 参考訳(メタデータ) (2022-10-25T12:49:36Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Non-Negative Bregman Divergence Minimization for Deep Direct Density
Ratio Estimation [18.782750537161615]
実験的なBD推定器の非負の補正手法を提案する。
提案手法は,不整合型外乱検出において良好な性能を示す。
論文 参考訳(メタデータ) (2020-06-12T07:39:03Z) - BERT Loses Patience: Fast and Robust Inference with Early Exit [91.26199404912019]
本稿では,事前学習した言語モデルの効率性と堅牢性を向上させるためのプラグイン・アンド・プレイ手法として,Patience-based Early Exitを提案する。
提案手法では,モデルを少ないレイヤで予測できるため,推論効率が向上する。
論文 参考訳(メタデータ) (2020-06-07T13:38:32Z) - Blind Adversarial Pruning: Balance Accuracy, Efficiency and Robustness [3.039568795810294]
本稿では, 段階的プルーニング過程において, 圧縮比が異なるプルーニングモデルのロバスト性について検討する。
次に、クリーンなデータと逆の例を段階的なプルーニングプロセスに混合する性能を検証し、逆プルーニング(英語版)と呼ぶ。
AERのバランスを改善するために,視覚的対位法(BAP)というアプローチを提案し,段階的対位法に視覚的対位法を取り入れた。
論文 参考訳(メタデータ) (2020-04-10T02:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。