論文の概要: Dual Attention Guided Defense Against Malicious Edits
- arxiv url: http://arxiv.org/abs/2512.14333v1
- Date: Tue, 16 Dec 2025 12:01:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.707997
- Title: Dual Attention Guided Defense Against Malicious Edits
- Title(参考訳): デュアルアテンションガイドによる悪意のある編集に対する防御
- Authors: Jie Zhang, Shuai Dong, Shiguang Shan, Xilin Chen,
- Abstract要約: 本稿では,DANP(Dual Attention-Guided Noise Perturbation)免疫法を提案する。
本手法は,悪意ある編集に対する印象的な免疫力を示し,その手法が最先端の性能を達成することを実証した。
- 参考スコア(独自算出の注目度): 70.17363183107604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in text-to-image diffusion models has transformed image editing via text prompts, yet this also introduces significant ethical challenges from potential misuse in creating deceptive or harmful content. While current defenses seek to mitigate this risk by embedding imperceptible perturbations, their effectiveness is limited against malicious tampering. To address this issue, we propose a Dual Attention-Guided Noise Perturbation (DANP) immunization method that adds imperceptible perturbations to disrupt the model's semantic understanding and generation process. DANP functions over multiple timesteps to manipulate both cross-attention maps and the noise prediction process, using a dynamic threshold to generate masks that identify text-relevant and irrelevant regions. It then reduces attention in relevant areas while increasing it in irrelevant ones, thereby misguides the edit towards incorrect regions and preserves the intended targets. Additionally, our method maximizes the discrepancy between the injected noise and the model's predicted noise to further interfere with the generation. By targeting both attention and noise prediction mechanisms, DANP exhibits impressive immunity against malicious edits, and extensive experiments confirm that our method achieves state-of-the-art performance.
- Abstract(参考訳): テキスト間拡散モデルの最近の進歩は、テキストプロンプトを介して画像編集を変容させてきたが、これはまた、偽りや有害なコンテンツを作成する際の潜在的な誤用による重大な倫理的課題も引き起こしている。
現在の防衛は、知覚不能な摂動を埋め込むことによってこのリスクを軽減しようとしているが、その効果は悪意のある改ざんに対して限られている。
そこで本研究では,DANP(Dual Attention-Guided Noise Perturbation)免疫法を提案する。
DANPは複数のタイムステップで機能し、クロスアテンションマップとノイズ予測プロセスの両方を操作し、ダイナミックしきい値を用いてテキスト関連領域と無関係領域を識別するマスクを生成する。
その後、関連する領域の注意を減らし、無関係な領域に拡大し、不適切な領域への編集を誤認し、意図したターゲットを保存する。
さらに, 提案手法は, 入射音と予測音との差を最大化し, 生成にさらなる干渉を与える。
DANPは、注意と騒音予測の両方のメカニズムを目標とすることにより、悪意のある編集に対する印象的な免疫力を示し、我々の手法が最先端の性能を達成することを実証した。
関連論文リスト
- NDM: A Noise-driven Detection and Mitigation Framework against Implicit Sexual Intentions in Text-to-Image Generation [41.058425895887616]
テキスト・ツー・イメージ(T2I)モデルは不適切なコンテンツを生成するのに弱い。
暗黙の性的プロンプトは、しばしば良心的な言葉に変装して、予想外の性的内容を引き起こす可能性がある。
我々は,最初のノイズ駆動型検出・緩和フレームワークであるNDMを提案する。
論文 参考訳(メタデータ) (2025-10-17T15:37:02Z) - Disruptive Attacks on Face Swapping via Low-Frequency Perceptual Perturbations [9.303194368381586]
GAN(Generative Adversarial Networks)によって駆動されるDeepfake技術は、プライバシと社会保障に重大なリスクをもたらす。
既存の検出手法は主に受動的であり、攻撃を防ぐことなく、事後分析に重点を置いている。
フェーススワップ操作を妨害する低周波摂動に基づくアクティブディフェンス法を提案する。
論文 参考訳(メタデータ) (2025-08-28T09:34:53Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - MIGA: Mutual Information-Guided Attack on Denoising Models for Semantic Manipulation [39.12448251986432]
深層認知モデルを直接攻撃するためのMIGA(Mutual Information-Guided Attack)を提案する。
MIGAは、敵対的摂動を通じて意味的コンテンツを保存するモデルの能力を戦略的に破壊する。
以上の結果から,デノベーションモデルは必ずしも堅牢ではなく,現実のアプリケーションにセキュリティリスクをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-10T06:26:34Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [103.40147707280585]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。