論文の概要: DiffPAD: Denoising Diffusion-based Adversarial Patch Decontamination
- arxiv url: http://arxiv.org/abs/2410.24006v2
- Date: Thu, 14 Nov 2024 14:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:50.261209
- Title: DiffPAD: Denoising Diffusion-based Adversarial Patch Decontamination
- Title(参考訳): DiffPAD:拡散に基づく逆パッチ除去
- Authors: Jia Fu, Xiao Zhang, Sepideh Pashami, Fatemeh Rahimian, Anders Holst,
- Abstract要約: DiffPADは、拡散モデルのパワーを利用した新しいフレームワークである。
我々は,DiffPADがパッチ攻撃に対する最先端の敵対的堅牢性を達成し,パッチ残余を伴わない自然像の回復に優れることを示す。
- 参考スコア(独自算出の注目度): 5.7254228484416325
- License:
- Abstract: In the ever-evolving adversarial machine learning landscape, developing effective defenses against patch attacks has become a critical challenge, necessitating reliable solutions to safeguard real-world AI systems. Although diffusion models have shown remarkable capacity in image synthesis and have been recently utilized to counter $\ell_p$-norm bounded attacks, their potential in mitigating localized patch attacks remains largely underexplored. In this work, we propose DiffPAD, a novel framework that harnesses the power of diffusion models for adversarial patch decontamination. DiffPAD first performs super-resolution restoration on downsampled input images, then adopts binarization, dynamic thresholding scheme and sliding window for effective localization of adversarial patches. Such a design is inspired by the theoretically derived correlation between patch size and diffusion restoration error that is generalized across diverse patch attack scenarios. Finally, DiffPAD applies inpainting techniques to the original input images with the estimated patch region being masked. By integrating closed-form solutions for super-resolution restoration and image inpainting into the conditional reverse sampling process of a pre-trained diffusion model, DiffPAD obviates the need for text guidance or fine-tuning. Through comprehensive experiments, we demonstrate that DiffPAD not only achieves state-of-the-art adversarial robustness against patch attacks but also excels in recovering naturalistic images without patch remnants. The source code is available at https://github.com/JasonFu1998/DiffPAD.
- Abstract(参考訳): 進化を続ける敵対的機械学習の世界では、パッチ攻撃に対する効果的な防御を開発することが重要な課題となり、現実のAIシステムを保護するための信頼性の高いソリューションを必要としている。
拡散モデルは画像合成において顕著な能力を示しており、最近は$$\ell_p$-normの有界攻撃に対抗するために利用されているが、局所的なパッチ攻撃を緩和する可能性はほとんど探索されていない。
本研究では,逆パッチ除去のための拡散モデルのパワーを利用する新しいフレームワークであるDiffPADを提案する。
DiffPADはまず、ダウンサンプリングされた入力画像の超解像復元を行い、二項化、動的しきい値設定、スライディングウィンドウを採用して、対向パッチの効果的な位置決めを行う。
このような設計は、様々なパッチ攻撃シナリオで一般化されるパッチサイズと拡散復元誤差の理論的に導出された相関から着想を得ている。
最後に、DiffPADは、推定パッチ領域をマスクした元の入力画像に塗装技術を適用する。
DiffPADは、超解像復元のための閉形式解と、事前訓練された拡散モデルの条件逆サンプリングプロセスに塗装することで、テキストガイダンスや微調整の必要性を回避できる。
包括的実験により,DiffPADはパッチ攻撃に対する最先端の敵対的堅牢性を達成するだけでなく,パッチ残差のない自然像の復元にも優れることを示した。
ソースコードはhttps://github.com/JasonFu1998/DiffPAD.comで入手できる。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Real-world Adversarial Defense against Patch Attacks based on Diffusion Model [34.86098237949215]
本稿では,DIFfusionをベースとした新しいDeFenderフレームワークであるDIFFenderを紹介する。
我々のアプローチの核心は、AAP(Adversarial Anomaly Perception)現象の発見である。
DIFFenderは、統一拡散モデルフレームワークにパッチのローカライゼーションと復元のタスクをシームレスに統合する。
論文 参考訳(メタデータ) (2024-09-14T10:38:35Z) - Pixel Is Not A Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を悪用した特徴表現攻撃損失と,保護された画像の自然性を高めるための潜在最適化戦略を備えた,新たな攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Prompt-Agnostic Adversarial Perturbation for Customized Diffusion Models [27.83772742404565]
本稿では,カスタマイズした拡散モデルのためのPAP(Prompt-Agnostic Adversarial Perturbation)手法を提案する。
PAPはまず、ラプラス近似を用いてプロンプト分布をモデル化し、その後、外乱期待を最大化することで、急激な摂動を発生させる。
このアプローチは、即時無敵攻撃に効果的に取り組み、防御安定性を向上させる。
論文 参考訳(メタデータ) (2024-08-20T06:17:56Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - DiffMAC: Diffusion Manifold Hallucination Correction for High Generalization Blind Face Restoration [62.44659039265439]
視覚障害者の視力回復を支援するための拡散情報拡散フレームワークを提案する。
DiffMACは、多種多様な劣化シーンと異種ドメインにおいて、高度な顔の復元を実現する。
結果は,最先端手法よりもDiffMACの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T08:44:15Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks [34.86098237949214]
敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
本稿では,テキスト誘導拡散モデルを用いてパッチ攻撃に対処する新しい防御フレームワークであるDIFFenderを紹介する。
DIFFenderは、パッチのローカライゼーションと復元の2つのタスクを単一の拡散モデルフレームワークに統合する。
論文 参考訳(メタデータ) (2023-06-15T13:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。