論文の概要: DiffBreak: Breaking Diffusion-Based Purification with Adaptive Attacks
- arxiv url: http://arxiv.org/abs/2411.16598v2
- Date: Tue, 04 Feb 2025 20:04:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:25:48.682277
- Title: DiffBreak: Breaking Diffusion-Based Purification with Adaptive Attacks
- Title(参考訳): DiffBreak: 適応的な攻撃で拡散に基づく浄化を破る
- Authors: Andre Kassis, Urs Hengartner, Yaoliang Yu,
- Abstract要約: 拡散型浄化(DBP)は、敵例(AEs)に対する防御基盤として登場した。
適応的勾配に基づく攻撃がこの基礎的主張を無効にすることを示す。
本稿では,近年のディープフェイク透かしに対する最適化手法の新たな適用法を提案する。
- 参考スコア(独自算出の注目度): 20.15955997832192
- License:
- Abstract: Diffusion-based purification (DBP) has emerged as a cornerstone defense against adversarial examples (AEs), widely regarded as robust due to its use of diffusion models (DMs) that project AEs onto the natural data distribution. However, contrary to prior assumptions, we theoretically prove that adaptive gradient-based attacks nullify this foundational claim, effectively targeting the DM rather than the classifier and causing purified outputs to align with adversarial distributions. This surprising discovery prompts a reassessment of DBP's robustness, revealing it stems from critical flaws in backpropagation techniques used so far for attacking DBP. To address these gaps, we introduce DiffBreak, a novel and reliable gradient library for DBP, which exposes how adaptive attacks drastically degrade its robustness. In stricter majority-vote settings, where classifier decisions aggregate predictions over multiple purified inputs, DBP retains partial robustness to traditional norm-bounded AEs due to its stochasticity disrupting adversarial alignment. However, we propose a novel adaptation of a recent optimization method against deepfake watermarking, crafting systemic adversarial perturbations that defeat DBP even under these conditions, ultimately challenging its viability as a defense without improvements.
- Abstract(参考訳): 拡散型浄化法 (DBP) は, 自然データ分布にAEを投影する拡散モデル (DM) を用いることにより, 敵例 (AEs) に対する基礎的な防御法として出現している。
しかし、従来の仮定とは対照的に、適応的勾配に基づく攻撃がこの基本的主張を無効にし、分類器よりもDMを効果的に標的とし、純出力を敵の分布と整合させることを理論的に証明する。
この驚くべき発見は、DBPの堅牢性を再評価するきっかけとなり、DBPを攻撃するためにこれまで使われてきたバックプロパゲーション技術における重大な欠陥が原因であることが判明した。
DiffBreakはDBPのための新しく信頼性の高い勾配ライブラリで、アダプティブアタックがロバスト性を大幅に低下させる様子を公開しています。
より厳格な多数決投票設定では、分類器の判断が複数の純粋入力に対して集約されるため、DBPは対向的アライメントを阻害する確率性のため、従来の標準有界AEに対して部分的ロバスト性を維持する。
しかし,これらの条件下においてもDBPを倒すようなシステム的対向的摂動を創り出し,改良を伴わない防御策としてその実現性に挑戦する手法として,近年のディープフェイク透かしに対する新しい最適化手法を提案する。
関連論文リスト
- Adversarial Purification by Consistency-aware Latent Space Optimization on Data Manifolds [48.37843602248313]
ディープニューラルネットワーク(DNN)は、クリーンデータに知覚不能な摂動を加えることで作られた敵のサンプルに対して脆弱であり、誤った危険な予測につながる可能性がある。
本稿では、事前学習された一貫性モデルの潜在空間内のベクトルを最適化し、クリーンなデータを復元するためのサンプルを生成する、一貫性モデルに基づく適応的パーフィケーション(CMAP)を提案する。
CMAPは、高い自然な精度を維持しながら、強力な敵攻撃に対する堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-11T14:14:02Z) - ADBM: Adversarial diffusion bridge model for reliable adversarial purification [21.2538921336578]
近年,拡散型浄化法(DiffPure)は,敵の事例に対する効果的な防御法として認識されている。
DiffPureは, 元の事前学習拡散モデルを用いて, 逆流浄化を最適に行う。
本稿では,ADBMと呼ばれる新しいAdrialversa Diffusion Bridge Modelを提案する。
論文 参考訳(メタデータ) (2024-08-01T06:26:05Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では、DBPプロセスの本質が、その堅牢性の主要な要因であると主張している。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。