論文の概要: Towards Robust Defense against Customization via Protective Perturbation Resistant to Diffusion-based Purification
- arxiv url: http://arxiv.org/abs/2509.13922v2
- Date: Fri, 19 Sep 2025 06:52:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 12:06:46.402217
- Title: Towards Robust Defense against Customization via Protective Perturbation Resistant to Diffusion-based Purification
- Title(参考訳): 拡散型浄化に抵抗する保護的摂動によるカスタマイズに対するロバスト対策
- Authors: Wenkui Yang, Jie Cao, Junxian Duan, Ran He,
- Abstract要約: 保護摂動は、知覚不能な対向雑音を注入することで、画像誤用を緩和する。
浄化は保護的摂動を除去し 悪意ある偽造の危険に 再び画像を露呈する
AntiPureは、代表的な浄化条件下で持続する知覚不能な摂動を埋め込み、効果的なポストカストマイゼーション歪みを達成する。
- 参考スコア(独自算出の注目度): 20.862062527487794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models like Stable Diffusion have become prominent in visual synthesis tasks due to their powerful customization capabilities, which also introduce significant security risks, including deepfakes and copyright infringement. In response, a class of methods known as protective perturbation emerged, which mitigates image misuse by injecting imperceptible adversarial noise. However, purification can remove protective perturbations, thereby exposing images again to the risk of malicious forgery. In this work, we formalize the anti-purification task, highlighting challenges that hinder existing approaches, and propose a simple diagnostic protective perturbation named AntiPure. AntiPure exposes vulnerabilities of purification within the "purification-customization" workflow, owing to two guidance mechanisms: 1) Patch-wise Frequency Guidance, which reduces the model's influence over high-frequency components in the purified image, and 2) Erroneous Timestep Guidance, which disrupts the model's denoising strategy across different timesteps. With additional guidance, AntiPure embeds imperceptible perturbations that persist under representative purification settings, achieving effective post-customization distortion. Experiments show that, as a stress test for purification, AntiPure achieves minimal perceptual discrepancy and maximal distortion, outperforming other protective perturbation methods within the purification-customization workflow.
- Abstract(参考訳): 安定拡散のような拡散モデルは、強力なカスタマイズ機能によって視覚合成タスクで顕著になり、ディープフェイクや著作権侵害など、重大なセキュリティリスクも生じている。
これに対し、保護摂動と呼ばれる一連の手法が出現し、知覚不能な対向雑音を注入することで画像誤用を軽減した。
しかし、浄化によって保護的摂動が取り除かれ、悪意ある偽造の危険に再び画像が露出する。
本研究では, 既存のアプローチを阻害する課題を浮き彫りにして, 抗精製課題を定式化し, 簡易な保護摂動法であるAntiPureを提案する。
AntiPureは2つのガイダンスメカニズムにより、"パーフィケーション・カストマイゼーション"ワークフローにおけるパーフィケーションの脆弱性を露呈する。
1) 浄化画像中の高周波成分に対するモデルの影響を低減するパッチワイズ周波数誘導装置
2) 間違った時間ステップガイダンス – 異なる時間ステップにわたるモデルの認知戦略を妨害する。
追加のガイダンスにより、AntiPureは、代表的な浄化設定の下で持続する知覚不能な摂動を埋め込み、効果的なポストカストミゼーション歪みを達成する。
実験では、浄化のためのストレステストとして、AntiPureは最小限の知覚的不一致と最大歪みを達成し、浄化-共生ワークフロー内の他の保護摂動方法よりも優れていた。
関連論文リスト
- Disruptive Attacks on Face Swapping via Low-Frequency Perceptual Perturbations [9.303194368381586]
GAN(Generative Adversarial Networks)によって駆動されるDeepfake技術は、プライバシと社会保障に重大なリスクをもたらす。
既存の検出手法は主に受動的であり、攻撃を防ぐことなく、事後分析に重点を置いている。
フェーススワップ操作を妨害する低周波摂動に基づくアクティブディフェンス法を提案する。
論文 参考訳(メタデータ) (2025-08-28T09:34:53Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - Anti-Inpainting: A Proactive Defense Approach against Malicious Diffusion-based Inpainters under Unknown Conditions [14.34509668877061]
アンチ・インペインティング(英: anti-Inpainting)は、3つの新しいモジュールからなる保護を達成するプロアクティブ・ディフェンス・アプローチである。
まず,拡散復調過程から複雑な特徴を抽出する多層深層特徴抽出器を提案する。
次に, 対向摂動の伝達性を高めるため, マルチスケールな意味保存データ拡張手法を設計する。
論文 参考訳(メタデータ) (2025-05-19T12:07:29Z) - Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - Instant Adversarial Purification with Adversarial Consistency Distillation [1.3165428727965363]
One Step Control Purification (OSCP) は、単一の神経機能評価において頑健な敵の浄化を実現する新しい防御フレームワークである。
ImageNetの実験結果はOSCPの優れた性能を示し、74.19%の防衛成功率を達成し、純度は0.1秒に過ぎなかった。
論文 参考訳(メタデータ) (2024-08-30T07:49:35Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial Purification against Evasion Attacks [18.016148305499865]
MalPurifierは、Androidのマルウェア検出用に特別に設計された、新しい対逆浄化フレームワークである。
2つの大規模なデータセットの実験により、MalPurifierは最先端の防御を著しく上回っていることが示された。
MalPurifierは軽量でモデルに依存しないプラグイン・アンド・プレイモジュールとして、MLベースのAndroidマルウェア検出器のセキュリティを強化するための実用的で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - Adversarial Purification of Information Masking [8.253834429336656]
アドリアックは、ニューラルネットワークを騙すイメージに対して、極小で知覚不能な摂動を発生させる。
これらに対抗して、敵の入力サンプルをクリーンな出力画像に変換し、敵の攻撃を防ごうとする。
本稿では,情報マスク浄化 (IMPure) と呼ばれる新しい対向的浄化手法を提案し,対向的摂動を広範囲に排除する。
論文 参考訳(メタデータ) (2023-11-26T15:50:19Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。