論文の概要: Off-The-Shelf Image-to-Image Models Are All You Need To Defeat Image Protection Schemes
- arxiv url: http://arxiv.org/abs/2602.22197v1
- Date: Wed, 25 Feb 2026 18:46:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.955037
- Title: Off-The-Shelf Image-to-Image Models Are All You Need To Defeat Image Protection Schemes
- Title(参考訳): オフ・ザ・シェルフのイメージ・ツー・イメージ・モデル
- Authors: Xavier Pleimling, Sifat Muhammad Abdullah, Gunjan Balde, Peng Gao, Mainack Mondal, Murtuza Jadliwala, Bimal Viswanath,
- Abstract要約: 我々は、簡単なテキストプロンプトを用いて、既製のイメージ・ツー・イメージGenAIモデルをジェネリック・デノイザとして再利用できることを示します。
以上の結果から,現在の画像保護の状況において,重要かつ広範囲な脆弱性が指摘され,多くのスキームが誤ったセキュリティ感覚をもたらすことが示唆された。
- 参考スコア(独自算出の注目度): 16.291584448627372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in Generative AI (GenAI) have led to the development of various protection strategies to prevent the unauthorized use of images. These methods rely on adding imperceptible protective perturbations to images to thwart misuse such as style mimicry or deepfake manipulations. Although previous attacks on these protections required specialized, purpose-built methods, we demonstrate that this is no longer necessary. We show that off-the-shelf image-to-image GenAI models can be repurposed as generic ``denoisers" using a simple text prompt, effectively removing a wide range of protective perturbations. Across 8 case studies spanning 6 diverse protection schemes, our general-purpose attack not only circumvents these defenses but also outperforms existing specialized attacks while preserving the image's utility for the adversary. Our findings reveal a critical and widespread vulnerability in the current landscape of image protection, indicating that many schemes provide a false sense of security. We stress the urgent need to develop robust defenses and establish that any future protection mechanism must be benchmarked against attacks from off-the-shelf GenAI models. Code is available in this repository: https://github.com/mlsecviswanath/img2imgdenoiser
- Abstract(参考訳): 生成AI(GenAI)の進歩は、画像の不正使用を防ぐための様々な保護戦略の開発につながっている。
これらの方法は、スタイルの模倣やディープフェイク操作などの誤用を防ぐために、イメージに知覚不能な保護的摂動を加えることに頼っている。
これらの保護に対する以前の攻撃には特殊で目的の手法が必要であったが、もはや必要ではないことが実証された。
画像から画像へ変換するGenAIモデルは、単純なテキストプロンプトを用いて汎用的な「デノワザー」として再利用でき、広範囲の保護的摂動を効果的に除去できることを示す。
本研究は,6つの多種多様な保護スキームにまたがる8つのケーススタディにおいて,汎用攻撃はこれらの防御を回避できるだけでなく,敵に対する画像の有用性を保ちながら,既存の特殊攻撃よりも優れる。
以上の結果から,現在の画像保護の状況において,重要かつ広範囲な脆弱性が指摘され,多くのスキームが誤ったセキュリティ感覚をもたらすことが示唆された。
我々は、堅牢な防衛を開発する緊急の必要性を強調し、将来の保護メカニズムは、市販のGenAIモデルによる攻撃に対してベンチマークする必要があることを確約する。
コードは、このリポジトリで入手できる。 https://github.com/mlsecviswanath/img2imgdenoiser
関連論文リスト
- Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Fragile by Design: On the Limits of Adversarial Defenses in Personalized Generation [26.890796322896346]
Anti-DreamBoothのような防御機構は、顔認証漏洩のリスクを軽減する。
これらの手法の2つの重要かつ見過ごされた限界を同定する。
その結果、現在の手法はいずれもそのような脅威下での保護効果を維持していないことが明らかとなった。
論文 参考訳(メタデータ) (2025-11-13T14:56:25Z) - SafeGuider: Robust and Practical Content Safety Control for Text-to-Image Models [74.11062256255387]
テキスト・ツー・イメージのモデルは、安全対策を回避し、有害なコンテンツを生成できる敵のプロンプトに対して非常に脆弱である。
SafeGuiderは, 生成品質を損なうことなく, 堅牢な安全制御を実現するための2段階のフレームワークである。
SafeGuiderは攻撃成功率の最小化において例外的な効果を示し、様々な攻撃シナリオで最大速度は5.48%である。
論文 参考訳(メタデータ) (2025-10-05T10:24:48Z) - Anti-Tamper Protection for Unauthorized Individual Image Generation [12.863447377767182]
ATP(Anti-Tamper Perturbation)は、摂動のタンパー防御機構である。
ATPは様々な攻撃設定で偽造攻撃を防御する効果を示す。
論文 参考訳(メタデータ) (2025-08-05T20:34:25Z) - Antelope: Potent and Concealed Jailbreak Attack Strategy [7.970002819722513]
Antelopeは、ジェネレーティブモデル固有のセキュリティ脆弱性を明らかにするために設計された、より堅牢で隠蔽されたジェイルブレイク攻撃戦略である。
我々は、オンラインブラックボックスサービスに侵入するために、モデルベースの攻撃の転送可能性を利用することに成功した。
論文 参考訳(メタデータ) (2024-12-11T07:22:51Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。