論文の概要: BlurGuard: A Simple Approach for Robustifying Image Protection Against AI-Powered Editing
- arxiv url: http://arxiv.org/abs/2511.00143v1
- Date: Fri, 31 Oct 2025 17:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.642251
- Title: BlurGuard: A Simple Approach for Robustifying Image Protection Against AI-Powered Editing
- Title(参考訳): BlurGuard:AIによる編集に対する画像保護のロバスト化
- Authors: Jinsu Kim, Yunhun Nam, Minseon Kim, Sangpil Kim, Jongheon Jeong,
- Abstract要約: 新たな研究のラインは、公開前に画像に「保護的な」敵のノイズを埋め込むことに焦点を当てている。
本稿では,ノイズリバーサル手法に対する画像保護手法の堅牢性を高めるための驚くほど単純な手法を提案する。
- 参考スコア(独自算出の注目度): 25.580397148737685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in text-to-image models have increased the exposure of powerful image editing techniques as a tool, raising concerns about their potential for malicious use. An emerging line of research to address such threats focuses on implanting "protective" adversarial noise into images before their public release, so future attempts to edit them using text-to-image models can be impeded. However, subsequent works have shown that these adversarial noises are often easily "reversed," e.g., with techniques as simple as JPEG compression, casting doubt on the practicality of the approach. In this paper, we argue that adversarial noise for image protection should not only be imperceptible, as has been a primary focus of prior work, but also irreversible, viz., it should be difficult to detect as noise provided that the original image is hidden. We propose a surprisingly simple method to enhance the robustness of image protection methods against noise reversal techniques. Specifically, it applies an adaptive per-region Gaussian blur on the noise to adjust the overall frequency spectrum. Through extensive experiments, we show that our method consistently improves the per-sample worst-case protection performance of existing methods against a wide range of reversal techniques on diverse image editing scenarios, while also reducing quality degradation due to noise in terms of perceptual metrics. Code is available at https://github.com/jsu-kim/BlurGuard.
- Abstract(参考訳): 近年のテキスト・ツー・イメージ・モデルの発展により、ツールとしての強力な画像編集技術の露出が増加し、悪意のある使用の可能性への懸念が高まっている。
このような脅威に対処する新たな研究は、公開前に画像に「保護的な」敵対的ノイズを埋め込むことに重点を置いている。
しかし、その後の研究では、これらの敵対的ノイズは、例えばJPEG圧縮のような単純な手法で容易に「逆」され、アプローチの実用性に疑問を投げかけることが示されている。
本稿では,従来の作業の主眼であった画像保護の逆方向ノイズは知覚不能であるだけでなく,本来の画像が隠されている場合のノイズの検出も困難である,と論じる。
本稿では,ノイズリバーサル手法に対する画像保護手法の堅牢性を高めるための驚くほど単純な手法を提案する。
具体的には、周波数スペクトルを調節するために、領域ごとのガウスのぼかしを雑音に適応的に印加する。
広範にわたる実験により,提案手法は,多様な画像編集シナリオにおいて,既存の手法の最悪ケース保護性能を常に改善するとともに,知覚的指標によるノイズによる品質劣化の低減も図っている。
コードはhttps://github.com/jsu-kim/BlurGuard.comで入手できる。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - DCT-Shield: A Robust Frequency Domain Defense against Malicious Image Editing [1.7624347338410742]
最近のディフェンスは、拡散ベースの編集モデルの機能を損なうために、ピクセル空間に限られたノイズを加えることで画像を保護する。
本稿では,周波数領域に直接対向摂動を導入する新しい最適化手法を提案する。
JPEGパイプラインを利用して,悪意のある画像編集を効果的に防止する逆画像を生成する。
論文 参考訳(メタデータ) (2025-04-24T19:14:50Z) - Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - Anti-Reference: Universal and Immediate Defense Against Reference-Based Generation [24.381813317728195]
反参照は、参照ベースの生成技術によって引き起こされる脅威から画像を保護する新しい方法である。
本研究では,微調整に基づくカスタマイズ手法に対する共同攻撃を可能にする一元的損失関数を提案する。
提案手法は特定の転送攻撃能力を示し,グレーボックスモデルといくつかの商用APIの両方に効果的に挑戦する。
論文 参考訳(メタデータ) (2024-12-08T16:04:45Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [103.40147707280585]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。