論文の概要: Black-Box Forgery Attacks on Semantic Watermarks for Diffusion Models
- arxiv url: http://arxiv.org/abs/2412.03283v1
- Date: Wed, 04 Dec 2024 12:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:10:01.576902
- Title: Black-Box Forgery Attacks on Semantic Watermarks for Diffusion Models
- Title(参考訳): 拡散モデルのための意味的透かしに対するブラックボックス偽造攻撃
- Authors: Andreas Müller, Denis Lukovnikov, Jonas Thietke, Asja Fischer, Erwin Quiring,
- Abstract要約: 攻撃者は、異なる潜在空間やアーキテクチャであっても、無関係なモデルを利用して、強力で現実的な偽造攻撃を行うことができることを示す。
第1は、対象の透かしを実画像に印字し、無関係のLCMにおいて任意の画像の潜在表現を操作する。
第2の攻撃は、透かし画像を反転させて任意のプロンプトで再生することにより、目標の透かしで新たな画像を生成する。
- 参考スコア(独自算出の注目度): 16.57738116313139
- License:
- Abstract: Integrating watermarking into the generation process of latent diffusion models (LDMs) simplifies detection and attribution of generated content. Semantic watermarks, such as Tree-Rings and Gaussian Shading, represent a novel class of watermarking techniques that are easy to implement and highly robust against various perturbations. However, our work demonstrates a fundamental security vulnerability of semantic watermarks. We show that attackers can leverage unrelated models, even with different latent spaces and architectures (UNet vs DiT), to perform powerful and realistic forgery attacks. Specifically, we design two watermark forgery attacks. The first imprints a targeted watermark into real images by manipulating the latent representation of an arbitrary image in an unrelated LDM to get closer to the latent representation of a watermarked image. We also show that this technique can be used for watermark removal. The second attack generates new images with the target watermark by inverting a watermarked image and re-generating it with an arbitrary prompt. Both attacks just need a single reference image with the target watermark. Overall, our findings question the applicability of semantic watermarks by revealing that attackers can easily forge or remove these watermarks under realistic conditions.
- Abstract(参考訳): 遅延拡散モデル(LDM)の生成過程への透かしの統合は、生成されたコンテンツの検出と帰属を単純化する。
ツリーリングやガウスシェーディングのようなセマンティックな透かしは、実装が容易で、様々な摂動に対して非常に堅牢な新しい種類の透かし技術である。
しかし、我々の研究はセマンティックな透かしの基本的なセキュリティ脆弱性を実証している。
攻撃者は、異なる潜在空間やアーキテクチャ(UNet対DiT)であっても、無関係なモデルを利用して、強力で現実的な偽造攻撃を行うことができることを示す。
具体的には、2つのウォーターマーク偽造攻撃を設計する。
第1は、対象の透かしを実画像に印字し、無関係のLCMにおいて任意の画像の潜時表現を操作して、透かし画像の潜時表現に近づける。
また,この手法が透かし除去に有効であることを示す。
第2の攻撃は、透かし画像を反転させて任意のプロンプトで再生することにより、目標の透かしで新たな画像を生成する。
どちらの攻撃も、ターゲットの透かしを持つ単一の参照イメージが必要である。
本研究は,攻撃者が現実的な条件下で容易にこれらの透かしを偽造・削除できることを明らかにすることによって,意味的透かしの適用性に疑問を投げかけるものである。
関連論文リスト
- Invisible Watermarks: Attacks and Robustness [0.3495246564946556]
本稿では,攻撃時の画像品質の劣化を最小限に抑えるとともに,透かしの堅牢性を向上する新しい手法を提案する。
そこで本研究では,デコード中,一方の透かしのモダリティを保ちながら他方を完全に除去する独自の透かし除去ネットワークを提案する。
評価の結果,1)他のモダリティを復号する際の透かしモダリティの1つを保持するための透かし除去モデルの実装は,ベースライン性能において若干改善され,2)LBAは画像全体の均一なぼかしに比べて画像の劣化を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-12-17T03:50:13Z) - ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Stable Signature is Unstable: Removing Image Watermark from Diffusion Models [1.656188668325832]
本研究では,拡散モデルから透かしを微調整して除去する新たな攻撃法を提案する。
以上の結果から,本攻撃は画像が非透かしとなるような拡散モデルから効果的に透かしを除去できることが示唆された。
論文 参考訳(メタデータ) (2024-05-12T03:04:48Z) - A Transfer Attack to Image Watermarks [34.913290430783185]
本研究では,Non-box設定における画像透かしに対する新しい転送回避攻撃を提案する。
我々の主な貢献は、理論的にも経験的にも、既存の透かし法に基づく透かしベースのAI生成画像検出器は、回避攻撃に対して堅牢ではないことを示すことである。
論文 参考訳(メタデータ) (2024-03-22T17:33:11Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。