論文の概要: Is Perturbation-Based Image Protection Disruptive to Image Editing?
- arxiv url: http://arxiv.org/abs/2506.04394v2
- Date: Tue, 10 Jun 2025 19:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 02:07:43.258096
- Title: Is Perturbation-Based Image Protection Disruptive to Image Editing?
- Title(参考訳): 摂動に基づく画像保護は画像編集に破壊的か?
- Authors: Qiuyu Tang, Bonor Ayambem, Mooi Choo Chuah, Aparna Bharati,
- Abstract要約: 現在の画像保護法は、拡散ベースの編集を妨げるために、イメージに知覚できない摂動を追加することに依存している。
画像に対する完全な保護は、編集の試みの出力が望ましくないノイズの多い画像であることを意味する。
我々は、摂動に基づく手法は、拡散に基づく編集に対する堅牢な画像保護に十分な解決策を提供していないと論じる。
- 参考スコア(独自算出の注目度): 4.234664611250363
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The remarkable image generation capabilities of state-of-the-art diffusion models, such as Stable Diffusion, can also be misused to spread misinformation and plagiarize copyrighted materials. To mitigate the potential risks associated with image editing, current image protection methods rely on adding imperceptible perturbations to images to obstruct diffusion-based editing. A fully successful protection for an image implies that the output of editing attempts is an undesirable, noisy image which is completely unrelated to the reference image. In our experiments with various perturbation-based image protection methods across multiple domains (natural scene images and artworks) and editing tasks (image-to-image generation and style editing), we discover that such protection does not achieve this goal completely. In most scenarios, diffusion-based editing of protected images generates a desirable output image which adheres precisely to the guidance prompt. Our findings suggest that adding noise to images may paradoxically increase their association with given text prompts during the generation process, leading to unintended consequences such as better resultant edits. Hence, we argue that perturbation-based methods may not provide a sufficient solution for robust image protection against diffusion-based editing.
- Abstract(参考訳): 安定拡散のような最先端拡散モデルの顕著な画像生成能力は、誤情報を拡散し、著作権物質を盗用するためにも誤用される。
画像編集に伴う潜在的なリスクを軽減するため、現在の画像保護法は、拡散ベースの編集を妨げるために、画像に知覚不能な摂動を追加することに依存している。
画像に対する完全な保護は、編集の試みの出力が望ましくないノイズの多い画像であり、参照画像とは全く無関係であることを意味する。
複数の領域(自然シーン画像やアートワーク)にまたがる様々な摂動型画像保護手法と編集作業(イメージ・ツー・イメージ生成とスタイル編集)による実験により,このような保護が完全には達成できないことがわかった。
多くのシナリオにおいて、保護された画像の拡散に基づく編集は、ガイダンスプロンプトに正確に準拠する望ましい出力画像を生成する。
画像にノイズを加えると、生成プロセス中に与えられたテキストプロンプトとパラドックス的に関連が増し、より良い結果の編集などの意図しない結果が生じる可能性が示唆された。
したがって、摂動に基づく手法は、拡散に基づく編集に対する堅牢な画像保護に十分な解決策を提供していない。
関連論文リスト
- GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors [8.261182037130407]
GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2025-03-05T22:21:44Z) - Lost in Edits? A $λ$-Compass for AIGC Provenance [119.95562081325552]
本稿では,実測出力と操作された出力を頑健に識別し,識別する新しい潜在空間属性法を提案する。
LambdaTracerは、InstructPix2Pixのようなテキスト誘導編集ツールによって自動化されるか、Adobe Photoshopのような編集ソフトウェアで手動で実行されるか、様々な反復編集プロセスで有効である。
論文 参考訳(メタデータ) (2025-02-05T06:24:25Z) - Enhancing Text-to-Image Editing via Hybrid Mask-Informed Fusion [61.42732844499658]
本稿では拡散モデルに基づくテキスト誘導画像編集手法を体系的に改善する。
我々は、人間のアノテーションを外部知識として組み込んで、Mask-informed'領域内で編集を限定する。
論文 参考訳(メタデータ) (2024-05-24T07:53:59Z) - EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection [19.140822655858873]
著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
論文 参考訳(メタデータ) (2023-12-12T15:41:24Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z) - DiffEdit: Diffusion-based semantic image editing with mask guidance [64.555930158319]
DiffEditは、セマンティック画像編集のタスクにテキスト条件付き拡散モデルを利用する方法である。
私たちの主なコントリビューションは、編集が必要な入力画像の領域をハイライトするマスクを自動的に生成できることです。
論文 参考訳(メタデータ) (2022-10-20T17:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。