論文の概要: TarPro: Targeted Protection against Malicious Image Editing
- arxiv url: http://arxiv.org/abs/2503.13994v1
- Date: Tue, 18 Mar 2025 07:54:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:12.55331
- Title: TarPro: Targeted Protection against Malicious Image Editing
- Title(参考訳): TarPro:悪意のある画像編集に対するターゲット保護
- Authors: Kaixin Shen, Ruijie Quan, Jiaxu Miao, Jun Xiao, Yi Yang,
- Abstract要約: TarProは、悪意のある編集を防止し、良心的な修正を継続するターゲット保護フレームワークである。
この結果から,TarProは画像編集をセキュアかつ制御する実用的なソリューションとして注目された。
- 参考スコア(独自算出の注目度): 31.33642445816449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of image editing techniques has raised concerns about their misuse for generating Not-Safe-for-Work (NSFW) content. This necessitates a targeted protection mechanism that blocks malicious edits while preserving normal editability. However, existing protection methods fail to achieve this balance, as they indiscriminately disrupt all edits while still allowing some harmful content to be generated. To address this, we propose TarPro, a targeted protection framework that prevents malicious edits while maintaining benign modifications. TarPro achieves this through a semantic-aware constraint that only disrupts malicious content and a lightweight perturbation generator that produces a more stable, imperceptible, and robust perturbation for image protection. Extensive experiments demonstrate that TarPro surpasses existing methods, achieving a high protection efficacy while ensuring minimal impact on normal edits. Our results highlight TarPro as a practical solution for secure and controlled image editing.
- Abstract(参考訳): 画像編集技術の急速な進歩は、Not-Safe-for-Work(NSFW)コンテンツの生成における悪用を懸念している。
これは、正常な編集性を維持しながら悪意のある編集をブロックするターゲット保護メカニズムを必要とする。
しかし、既存の保護方法は、有害なコンテンツを生成しながら、すべての編集を無差別に破壊するので、このバランスを達成できない。
この問題に対処するため,悪意のある編集を防止し,良質な修正を継続するターゲット保護フレームワークであるTarProを提案する。
TarProは悪意のあるコンテンツだけを妨害するセマンティック・アウェアの制約と、画像保護のためにより安定的で受け入れがたい、堅牢な摂動を生成する軽量な摂動発生器によってこれを達成している。
大規模な実験では、TarProが既存の手法を超越し、高い保護効果を達成し、通常の編集に最小限の影響を確実にすることを示した。
この結果から,TarProは画像編集をセキュアかつ制御する実用的なソリューションとして注目された。
関連論文リスト
- DCT-Shield: A Robust Frequency Domain Defense against Malicious Image Editing [1.7624347338410742]
最近のディフェンスは、拡散ベースの編集モデルの機能を損なうために、ピクセル空間に限られたノイズを加えることで画像を保護する。
本稿では,周波数領域に直接対向摂動を導入する新しい最適化手法を提案する。
JPEGパイプラインを利用して,悪意のある画像編集を効果的に防止する逆画像を生成する。
論文 参考訳(メタデータ) (2025-04-24T19:14:50Z) - Anti-Diffusion: Preventing Abuse of Modifications of Diffusion-Based Models [48.15314463057229]
拡散に基づく技術は、深刻なネガティブな社会的影響を引き起こす可能性がある。
拡散に基づく手法の悪用に対する防御を提供するために、いくつかの研究が提案されている。
本稿では,チューニングと編集の両方に適用可能なプライバシー保護システムであるアンチ拡散を提案する。
論文 参考訳(メタデータ) (2025-03-07T17:23:52Z) - GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors [8.261182037130407]
GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2025-03-05T22:21:44Z) - ACE: Anti-Editing Concept Erasure in Text-to-Image Models [73.00930293474009]
既存の概念消去手法は、削除された概念がプロンプトから生成されるのを防ぐために優れた結果が得られる。
本稿では、生成時にターゲット概念を消去するだけでなく、編集時に除去する反編集概念消去(ACE)手法を提案する。
論文 参考訳(メタデータ) (2025-01-03T04:57:27Z) - Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing [19.94455452402954]
FaceLockは、敵の摂動を最適化して生体情報を破壊または著しく変更する、ポートレート保護の新しいアプローチである。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
論文 参考訳(メタデータ) (2024-11-25T18:59:03Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection [19.140822655858873]
著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
論文 参考訳(メタデータ) (2023-12-12T15:41:24Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。