論文の概要: Towards Transferable Defense Against Malicious Image Edits
- arxiv url: http://arxiv.org/abs/2512.14341v1
- Date: Tue, 16 Dec 2025 12:10:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.710781
- Title: Towards Transferable Defense Against Malicious Image Edits
- Title(参考訳): 悪意ある画像編集に対するトランスファー可能な防御に向けて
- Authors: Jie Zhang, Shuai Dong, Shiguang Shan, Xilin Chen,
- Abstract要約: Transferable Defense Against Malicious Image Edits (TDAE)は、悪意のある編集に対するイメージ免疫を強化する新しいバイモーダルフレームワークである。
本稿では,FlatGrad Defense Mechanism (FDM) を紹介した。
テキストエンハンスメント保護のための動的プロンプトディフェンス (DPD) を提案し, テキスト埋め込みを周期的に洗練し, 免疫画像の編集結果を元の画像と整合させる。
- 参考スコア(独自算出の注目度): 70.17363183107604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches employing imperceptible perturbations in input images have demonstrated promising potential to counter malicious manipulations in diffusion-based image editing systems. However, existing methods suffer from limited transferability in cross-model evaluations. To address this, we propose Transferable Defense Against Malicious Image Edits (TDAE), a novel bimodal framework that enhances image immunity against malicious edits through coordinated image-text optimization. Specifically, at the visual defense level, we introduce FlatGrad Defense Mechanism (FDM), which incorporates gradient regularization into the adversarial objective. By explicitly steering the perturbations toward flat minima, FDM amplifies immune robustness against unseen editing models. For textual enhancement protection, we propose an adversarial optimization paradigm named Dynamic Prompt Defense (DPD), which periodically refines text embeddings to align the editing outcomes of immunized images with those of the original images, then updates the images under optimized embeddings. Through iterative adversarial updates to diverse embeddings, DPD enforces the generation of immunized images that seek a broader set of immunity-enhancing features, thereby achieving cross-model transferability. Extensive experimental results demonstrate that our TDAE achieves state-of-the-art performance in mitigating malicious edits under both intra- and cross-model evaluations.
- Abstract(参考訳): 近年,インプットイメージにおける知覚不能な摂動を用いたアプローチは,拡散型画像編集システムにおける悪意ある操作に対処する可能性を示唆している。
しかし,既存手法はクロスモデル評価において限られた伝達性に悩まされている。
そこで本研究では,画像テキストのコーディネートにより,悪意のある編集に対するイメージ免疫を高める新しいバイモーダルフレームワークであるTransferable Defense Against Malicious Image Edits (TDAE)を提案する。
具体的には,FDM(FlatGrad Defense Mechanism)を導入し,FDM(FlatGrad Defense Mechanism)について述べる。
平坦なミニマに向かって摂動を明示的に操ることで、FDMは目に見えない編集モデルに対する免疫堅牢性を増幅する。
テキスト強調保護のために,動的プロンプトディフェンス (DPD) と呼ばれる対向最適化手法を提案する。
多様な埋め込みに対する反復的な敵の更新を通じて、PDはより広範な免疫強調機能を求める免疫画像の生成を強制し、それによってクロスモデル転送性を実現する。
広範囲な実験結果から,我々のTDAEは,モデル内およびクロスモデル間の双方で悪意ある編集を軽減し,最先端の性能を達成できることが示された。
関連論文リスト
- Semantic Mismatch and Perceptual Degradation: A New Perspective on Image Editing Immunity [79.10998560865444]
我々は、予防接種の成功は、プロンプトを意味的にミスマッチさせたり、実質的な知覚的劣化に苦しんだりして、編集されたアウトプットによって定義されるべきであると論じる。
免疫成功率(Immunization Success Rate,ISR)は,免疫成功率(Immunization Success Rate,ISR)を初めて厳密に定量化するために設計された新しい指標である。
論文 参考訳(メタデータ) (2025-12-16T11:34:48Z) - Optimization-Free Image Immunization Against Diffusion-Based Editing [23.787546784989484]
DiffVaxは、画像免疫のためのスケーラブルで軽量で最適化のないフレームワークである。
提案手法は, 効率的な一般化によるコンテンツの発見, 計算コストの削減, 免疫時間を数日からミリ秒に短縮する。
論文 参考訳(メタデータ) (2024-11-27T00:30:26Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [103.40147707280585]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - Raising the Cost of Malicious AI-Powered Image Editing [82.71990330465115]
本研究では,大規模な拡散モデルによる悪意ある画像編集のリスクを軽減するためのアプローチを提案する。
鍵となるアイデアは、イメージを免疫して、これらのモデルによる操作に抵抗するようにすることだ。
論文 参考訳(メタデータ) (2023-02-13T18:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。