論文の概要: GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors
- arxiv url: http://arxiv.org/abs/2503.03944v1
- Date: Wed, 05 Mar 2025 22:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:59:47.092043
- Title: GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors
- Title(参考訳): GuardDoor:保護されたバックドアによる悪意のある拡散編集に対する保護
- Authors: Yaopei Zeng, Yuanpu Cao, Lu Lin,
- Abstract要約: GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
- 参考スコア(独自算出の注目度): 8.261182037130407
- License:
- Abstract: The growing accessibility of diffusion models has revolutionized image editing but also raised significant concerns about unauthorized modifications, such as misinformation and plagiarism. Existing countermeasures largely rely on adversarial perturbations designed to disrupt diffusion model outputs. However, these approaches are found to be easily neutralized by simple image preprocessing techniques, such as compression and noise addition. To address this limitation, we propose GuardDoor, a novel and robust protection mechanism that fosters collaboration between image owners and model providers. Specifically, the model provider participating in the mechanism fine-tunes the image encoder to embed a protective backdoor, allowing image owners to request the attachment of imperceptible triggers to their images. When unauthorized users attempt to edit these protected images with this diffusion model, the model produces meaningless outputs, reducing the risk of malicious image editing. Our method demonstrates enhanced robustness against image preprocessing operations and is scalable for large-scale deployment. This work underscores the potential of cooperative frameworks between model providers and image owners to safeguard digital content in the era of generative AI.
- Abstract(参考訳): 拡散モデルのアクセシビリティの増大は画像編集に革命をもたらしたが、誤情報や盗作などの不正な修正についても大きな懸念を引き起こした。
既存の対策は、拡散モデルの出力を乱すように設計された敵の摂動に大きく依存している。
しかし、これらの手法は、圧縮や雑音付加といった単純な画像前処理技術によって容易に中和できる。
この制限に対処するために、画像所有者とモデル提供者との協調を促進する、新しく堅牢な保護メカニズムであるGuardDoorを提案する。
具体的には、このメカニズムに参加しているモデルプロバイダは、イメージエンコーダを微調整して保護バックドアを埋め、イメージ所有者がイメージに許容できないトリガの添付を要求できるようにする。
非許可ユーザがこれらの保護された画像をこの拡散モデルで編集しようとすると、このモデルは無意味な出力を生成し、悪意のある画像編集のリスクを低減する。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
この研究は、生成AIの時代において、デジタルコンテンツを保護するためのモデル提供者と画像所有者間の協調的なフレームワークの可能性を強調している。
関連論文リスト
- Safety Alignment Backfires: Preventing the Re-emergence of Suppressed Concepts in Fine-tuned Text-to-Image Diffusion Models [57.16056181201623]
微調整されたテキストと画像の拡散モデルは、必然的に安全対策を解除し、有害な概念を再現する。
本報告では,Funice-Tuning LoRAコンポーネントとは別に,安全性の低い適応モジュールをトレーニングする,Modular LoRAと呼ばれる新しいソリューションを提案する。
本手法は,新しいタスクにおけるモデルの性能を損なうことなく,有害なコンテンツの再学習を効果的に防止する。
論文 参考訳(メタデータ) (2024-11-30T04:37:38Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection [19.140822655858873]
著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
論文 参考訳(メタデータ) (2023-12-12T15:41:24Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z) - Raising the Cost of Malicious AI-Powered Image Editing [82.71990330465115]
本研究では,大規模な拡散モデルによる悪意ある画像編集のリスクを軽減するためのアプローチを提案する。
鍵となるアイデアは、イメージを免疫して、これらのモデルによる操作に抵抗するようにすることだ。
論文 参考訳(メタデータ) (2023-02-13T18:38:42Z) - Invertible Image Dataset Protection [23.688878249633508]
我々は,従来の分類モデルを騙すために,画像にわずかな変化をもたらす可逆的逆例生成器 (RAEG) を開発した。
RAEGは、従来の方法よりも、敵防衛に対するわずかな歪みでデータを保護することができる。
論文 参考訳(メタデータ) (2021-12-29T06:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。