論文の概要: TarPro: Targeted Protection against Malicious Image Editing
- arxiv url: http://arxiv.org/abs/2503.13994v1
- Date: Tue, 18 Mar 2025 07:54:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:51.972924
- Title: TarPro: Targeted Protection against Malicious Image Editing
- Title(参考訳): TarPro:悪意のある画像編集に対するターゲット保護
- Authors: Kaixin Shen, Ruijie Quan, Jiaxu Miao, Jun Xiao, Yi Yang,
- Abstract要約: TarProは、悪意のある編集を防止し、良心的な修正を継続するターゲット保護フレームワークである。
この結果から,TarProは画像編集をセキュアかつ制御する実用的なソリューションとして注目された。
- 参考スコア(独自算出の注目度): 31.33642445816449
- License:
- Abstract: The rapid advancement of image editing techniques has raised concerns about their misuse for generating Not-Safe-for-Work (NSFW) content. This necessitates a targeted protection mechanism that blocks malicious edits while preserving normal editability. However, existing protection methods fail to achieve this balance, as they indiscriminately disrupt all edits while still allowing some harmful content to be generated. To address this, we propose TarPro, a targeted protection framework that prevents malicious edits while maintaining benign modifications. TarPro achieves this through a semantic-aware constraint that only disrupts malicious content and a lightweight perturbation generator that produces a more stable, imperceptible, and robust perturbation for image protection. Extensive experiments demonstrate that TarPro surpasses existing methods, achieving a high protection efficacy while ensuring minimal impact on normal edits. Our results highlight TarPro as a practical solution for secure and controlled image editing.
- Abstract(参考訳): 画像編集技術の急速な進歩は、Not-Safe-for-Work(NSFW)コンテンツの生成における悪用を懸念している。
これは、正常な編集性を維持しながら悪意のある編集をブロックするターゲット保護メカニズムを必要とする。
しかし、既存の保護方法は、有害なコンテンツを生成しながら、すべての編集を無差別に破壊するので、このバランスを達成できない。
この問題に対処するため,悪意のある編集を防止し,良質な修正を継続するターゲット保護フレームワークであるTarProを提案する。
TarProは悪意のあるコンテンツだけを妨害するセマンティック・アウェアの制約と、画像保護のためにより安定的で受け入れがたい、堅牢な摂動を生成する軽量な摂動発生器によってこれを達成している。
大規模な実験では、TarProが既存の手法を超越し、高い保護効果を達成し、通常の編集に最小限の影響を確実にすることを示した。
この結果から,TarProは画像編集をセキュアかつ制御する実用的なソリューションとして注目された。
関連論文リスト
- ACE: Anti-Editing Concept Erasure in Text-to-Image Models [73.00930293474009]
既存の概念消去手法は、削除された概念がプロンプトから生成されるのを防ぐために優れた結果が得られる。
本稿では、生成時にターゲット概念を消去するだけでなく、編集時に除去する反編集概念消去(ACE)手法を提案する。
論文 参考訳(メタデータ) (2025-01-03T04:57:27Z) - Safety Alignment Backfires: Preventing the Re-emergence of Suppressed Concepts in Fine-tuned Text-to-Image Diffusion Models [57.16056181201623]
微調整されたテキストと画像の拡散モデルは、必然的に安全対策を解除し、有害な概念を再現する。
本報告では,Funice-Tuning LoRAコンポーネントとは別に,安全性の低い適応モジュールをトレーニングする,Modular LoRAと呼ばれる新しいソリューションを提案する。
本手法は,新しいタスクにおけるモデルの性能を損なうことなく,有害なコンテンツの再学習を効果的に防止する。
論文 参考訳(メタデータ) (2024-11-30T04:37:38Z) - Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing [19.94455452402954]
FaceLockは、敵の摂動を最適化して生体情報を破壊または著しく変更する、ポートレート保護の新しいアプローチである。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
論文 参考訳(メタデータ) (2024-11-25T18:59:03Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection [19.140822655858873]
著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
論文 参考訳(メタデータ) (2023-12-12T15:41:24Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。