論文の概要: Purify Once, Edit Freely: Breaking Image Protections under Model Mismatch
- arxiv url: http://arxiv.org/abs/2603.13028v1
- Date: Fri, 13 Mar 2026 14:36:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.125539
- Title: Purify Once, Edit Freely: Breaking Image Protections under Model Mismatch
- Title(参考訳): 一度パーフェクトし、自由に編集:モデルミスマッチで画像保護を壊す
- Authors: Qichen Zhao, Shengfang Zhai, Xinjian Bai, Qingni Shen, Qiqi Lin, Yansong Gao, Zhonghai Wu,
- Abstract要約: 拡散モデルは高忠実な画像編集を可能にするが、不正なスタイルの模倣や有害なコンテンツ生成に誤用することもできる。
これらのリスクを軽減するため、プロアクティブな画像保護手法は、下流の編集や微調整を妨害するために共有する前に、画像に小さな、しばしば知覚できない敵の摂動を埋め込む。
我々は,モデルミスマッチ下での保護生存性を評価するために,統合されたリリース後浄化フレームワークを導入する。
- 参考スコア(独自算出の注目度): 21.826849937304477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models enable high-fidelity image editing but can also be misused for unauthorized style imitation and harmful content generation. To mitigate these risks, proactive image protection methods embed small, often imperceptible adversarial perturbations into images before sharing to disrupt downstream editing or fine-tuning. However, in realistic post-release scenarios, content owners cannot control downstream processing pipelines, and protections optimized for a surrogate model may fail when attackers use mismatched diffusion pipelines. Existing purification methods can weaken protections but often sacrifice image quality and rarely examine architectural mismatch. We introduce a unified post-release purification framework to evaluate protection survivability under model mismatch. We propose two practical purifiers: VAE-Trans, which corrects protected images via latent-space projection, and EditorClean, which performs instruction-guided reconstruction with a Diffusion Transformer to exploit architectural heterogeneity. Both operate without access to protected images or defense internals. Across 2,100 editing tasks and six representative protection methods, EditorClean consistently restores editability. Compared to protected inputs, it improves PSNR by 3-6 dB and reduces FID by 50-70 percent on downstream edits, while outperforming prior purification baselines by about 2 dB PSNR and 30 percent lower FID. Our results reveal a purify-once, edit-freely failure mode: once purification succeeds, the protective signal is largely removed, enabling unrestricted editing. This highlights the need to evaluate protections under model mismatch and design defenses robust to heterogeneous attackers.
- Abstract(参考訳): 拡散モデルは高忠実な画像編集を可能にするが、不正なスタイルの模倣や有害なコンテンツ生成に誤用することもできる。
これらのリスクを軽減するため、プロアクティブな画像保護手法は、下流の編集や微調整を妨害するために共有する前に、画像に小さな、しばしば知覚できない敵の摂動を埋め込む。
しかし、現実的なリリース後のシナリオでは、コンテンツ所有者は下流の処理パイプラインを制御できず、攻撃者がミスマッチした拡散パイプラインを使用すると、サロゲートモデルに最適化された保護が失敗する可能性がある。
既存の浄化方法は保護を弱めるが、しばしば画質を犠牲にし、アーキテクチャ上のミスマッチを調べることは滅多にない。
我々は,モデルミスマッチ下での保護生存性を評価するために,統合されたリリース後浄化フレームワークを導入する。
本稿では,遅延空間投影による保護画像の修正を行うVAE-Transと,ディフュージョン変換器を用いた命令誘導再構成を行うEditorCleanの2つを提案する。
どちらも保護された画像や防衛用内部にアクセスすることなく動作する。
2100以上の編集タスクと6つの代表的保護メソッドにより、EditorCleanは一貫して編集可能性を復元する。
保護された入力と比較して、PSNRを3~6dB改善し、FIDを50~70%ダウンストリーム編集で削減する。
精製が成功すると、保護信号はほぼ除去され、制限のない編集が可能となる。
これは、モデルミスマッチ下での保護評価の必要性と、異種攻撃に対して堅牢な設計防御を強調している。
関連論文リスト
- Towards Transferable Defense Against Malicious Image Edits [70.17363183107604]
Transferable Defense Against Malicious Image Edits (TDAE)は、悪意のある編集に対するイメージ免疫を強化する新しいバイモーダルフレームワークである。
本稿では,FlatGrad Defense Mechanism (FDM) を紹介した。
テキストエンハンスメント保護のための動的プロンプトディフェンス (DPD) を提案し, テキスト埋め込みを周期的に洗練し, 免疫画像の編集結果を元の画像と整合させる。
論文 参考訳(メタデータ) (2025-12-16T12:10:16Z) - AdLift: Lifting Adversarial Perturbations to Safeguard 3D Gaussian Splatting Assets Against Instruction-Driven Editing [109.07334219188222]
本稿では,任意のビューや次元にまたがる命令駆動編集を防止するAdLiftと呼ばれる3DGSの最初の編集セーフガードを提案する。
我々は勾配トランケーションとイメージ・ツー・ガウスのフィッティングを交互に行い、異なる視点で一貫した対向的保護性能を得る。
論文 参考訳(メタデータ) (2025-12-08T07:41:23Z) - Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Towards Robust Defense against Customization via Protective Perturbation Resistant to Diffusion-based Purification [20.862062527487794]
保護摂動は、知覚不能な対向雑音を注入することで、画像誤用を緩和する。
浄化は保護的摂動を除去し 悪意ある偽造の危険に 再び画像を露呈する
AntiPureは、代表的な浄化条件下で持続する知覚不能な摂動を埋め込み、効果的なポストカストマイゼーション歪みを達成する。
論文 参考訳(メタデータ) (2025-09-17T11:30:13Z) - Is Perturbation-Based Image Protection Disruptive to Image Editing? [4.234664611250363]
現在の画像保護法は、拡散ベースの編集を妨げるために、イメージに知覚できない摂動を追加することに依存している。
画像に対する完全な保護は、編集の試みの出力が望ましくないノイズの多い画像であることを意味する。
我々は、摂動に基づく手法は、拡散に基づく編集に対する堅牢な画像保護に十分な解決策を提供していないと論じる。
論文 参考訳(メタデータ) (2025-06-04T19:20:37Z) - GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors [8.261182037130407]
GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2025-03-05T22:21:44Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。