論文の概要: Stable Signature is Unstable: Removing Image Watermark from Diffusion Models
- arxiv url: http://arxiv.org/abs/2405.07145v1
- Date: Sun, 12 May 2024 03:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 18:08:19.420781
- Title: Stable Signature is Unstable: Removing Image Watermark from Diffusion Models
- Title(参考訳): 安定なシグナチャは不安定:拡散モデルから画像の透かしを取り除く
- Authors: Yuepeng Hu, Zhengyuan Jiang, Moyang Guo, Neil Gong,
- Abstract要約: 本研究では,拡散モデルから透かしを微調整して除去する新たな攻撃法を提案する。
以上の結果から,本攻撃は画像が非透かしとなるような拡散モデルから効果的に透かしを除去できることが示唆された。
- 参考スコア(独自算出の注目度): 1.656188668325832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermark has been widely deployed by industry to detect AI-generated images. A recent watermarking framework called \emph{Stable Signature} (proposed by Meta) roots watermark into the parameters of a diffusion model's decoder such that its generated images are inherently watermarked. Stable Signature makes it possible to watermark images generated by \emph{open-source} diffusion models and was claimed to be robust against removal attacks. In this work, we propose a new attack to remove the watermark from a diffusion model by fine-tuning it. Our results show that our attack can effectively remove the watermark from a diffusion model such that its generated images are non-watermarked, while maintaining the visual quality of the generated images. Our results highlight that Stable Signature is not as stable as previously thought.
- Abstract(参考訳): Watermarkは、AI生成画像を検出するために、業界によって広くデプロイされている。
最近のウォーターマークフレームワークである 'emph{Stable Signature} (Meta が提案) は、ウォーターマークを拡散モデルのデコーダのパラメータに根付け、生成した画像が本質的にウォーターマークされる。
安定署名は、emph{open-source}拡散モデルによって生成された画像を透かし、除去攻撃に対して堅牢であると主張した。
本研究では,拡散モデルから透かしを微調整して除去する新たな攻撃法を提案する。
この結果から, 画像の視覚的品質を維持しつつ, 画像が非透かしとなるような拡散モデルから, 効果的に透かしを除去できることが示唆された。
我々の結果は、Stable Signatureは以前考えられていたほど安定していないことを強調している。
関連論文リスト
- An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - Attack-Resilient Image Watermarking Using Stable Diffusion [24.40254115319263]
トレーニング済みの安定拡散モデルを用いて,トレーニング可能な潜在空間に透かしを注入するZoDiacを提案する。
ZoDiacは最先端の透かし攻撃に対して堅牢であり、透かし検出率は98%以上、偽陽性率は6.4%以下である。
我々の研究は、安定拡散は堅牢な透かしへの有望なアプローチであり、安定拡散に基づく攻撃にも耐えられることを示した。
論文 参考訳(メタデータ) (2024-01-08T21:42:56Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - The Stable Signature: Rooting Watermarks in Latent Diffusion Models [29.209892051477194]
本稿では,画像透かしと潜時拡散モデルを組み合わせたアクティブな戦略を提案する。
目標は、生成したすべての画像が、将来の検出および/または識別を可能にする、見えない透かしを隠すことだ。
予め訓練された透かし抽出器は、生成された画像から隠された署名を回収し、統計検査を行い、生成モデルから来たものかどうかを判定する。
論文 参考訳(メタデータ) (2023-03-27T17:57:33Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。